英特尔用于在其各类硬件平台上优化和部署 AI 推理的开源工具包 OpenVINO,现已发布最新的季度功能更新。此次更新不仅正式支持英特尔最新硬件,还为这一优秀的开源英特尔软件项目增加了对更多大型语言模型及其他新兴 AI 技术的支持。
OpenVINO 2026.1 版本继续扩展其生成式 AI(GenAI)功能。在 CPU 和 GPU 执行方面,该版本现已支持 Qwen3-VL 模型。在 CPU 方面,还新增了对 GPT-OSS 120B 的支持。

作为 OpenVINO 2026.1 的一项预览功能(preview feature),现已为 llama.cpp 引入了 OpenVINO 后端。上游的 llama.cpp 已经支持 SYCL 后端以运行于英特尔 GPU 等设备上,而现在正在开发 OpenVINO 后端。这一后端将实现针对英特尔 CPU、GPU 和 NPU 的优化推理。一旦该后端成熟,将极大拓展 llama.cpp 在英特尔酷睿 Ultra 处理器内置 NPU 上的应用前景,令人期待。
“预览版功能:推出用于 llama.cpp 的 OpenVINO 后端,可在英特尔 CPU、GPU 和 NPU 上实现优化推理。已验证支持 GGUF 格式的模型,例如 Llama-3.2-1B-Instruct-GGUF、Phi-3-mini-4k-instruct-gguf、Qwen2.5-1.5B-Instruct-GGUF 和 Mistral-7B-Instruct-v0.3。”
此外,OpenVINO 2026.1 还正式支持 Wildcat Lake SoC 芯片以及近期发布的 Intel Arc Pro B70 32GB 显卡。
OpenVINO 2026.1 的下载链接及更多详细信息可通过 GitHub 获取。我将很快发布更新后的 OpenVINO 性能基准测试。
转自 Intel Releases OpenVINO 2026.1 With Backend For Llama.cpp, New Hardware Support – Phoronix
Linuxeden开源社区