OpenVINO™工具包Intel® Distribution

753640
2/6/2025

簡介

此套件包含適用於Linux*、Windows* 和macOS* 的OpenVINO™ Toolkit 軟體版本2025.0的Intel® Distribution。

可用的下載項目

  • Debian Linux*
  • 大小:31.8 MB
  • SHA256:7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
  • CentOS 7 (1908)*
  • 大小:56.4 MB
  • SHA256:C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
  • Red Hat Enterprise Linux 8*
  • 大小:61.3 MB
  • SHA256:CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
  • Ubuntu 20.04 LTS*
  • 大小:64.5 MB
  • SHA256:622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
  • Ubuntu 20.04 LTS*
  • 大小:35.6 MB
  • SHA256:D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
  • Ubuntu 22.04 LTS*
  • 大小:55.4 MB
  • SHA256:09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
  • Ubuntu 24.04 LTS*
  • 大小:56.5 MB
  • SHA256:E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
  • macOS*
  • 大小:46.2 MB
  • SHA256:59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
  • macOS*
  • 大小:36.4 MB
  • SHA256:1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
  • Windows 11*, Windows 10*
  • 大小:117.6 MB
  • SHA256:B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B

詳細說明

最新消息

  • 更多 GenAI 覆蓋範圍和框架整合,可最大限度地減少代碼更改。
    • 支援的新型號:Qwen 2.5、Deepseek-R1-Distill-Llama-8B、DeepSeek-R1-Distill-Qwen-7B 和 DeepSeek-R1-Distill-Qwen-1.5B、FLUX.1 Schnell 和 FLUX.1 Dev。
    • Whisper Model:利用 GenAI API 改善 CPU、內建 GPU 和獨立 GPU 的效能。
    • 預覽:引入對torch.compile的NPU支援,使開發人員能夠使用OpenVINO後端在NPU上運行PyTorch API。從 TorchVision、Timm 和 TorchBench 儲存庫啟用 300+ 深度學習模型。
  • 更廣泛的大型語言模型(LLM)支援和更多的模型壓縮技術。
    • 預覽:向 GenAI API 添加提示查找,通過有效利用與預期用例匹配的預定義提示,改善了 LLM 的第二個令牌延遲。
    • 預覽:GenAI API 現在提供圖像到圖像的修復功能。此功能使模型能夠通過修復指定的修改並將其與原始圖像無縫集成來生成逼真的內容。
    • CPU 上的 INT8 現已啟用非對稱 KV 快取壓縮,從而降低記憶體消耗並改善第 2 個令牌延遲,尤其是在處理需要大量記憶體的長提示時。該選項應由用戶顯式指定。
  • 更高的便攜性和效能,可在邊緣、雲端或本地執行 AI。
    • 支援最新的 Intel® Core™ Ultra 200H 系列處理器(原名為 Arrow Lake-H)
    • 將 OpenVINO™ 後端與 Triton 推理伺服器整合,讓開發人員在 Intel CPU 上部署時,可利用 Triton 伺服器來增強模型服務效能。
    • 預覽版:全新的OpenVINO™後端整合讓開發人員直接在 Keras 3 工作流程中利用OpenVINO效能優化,在 CPU、內建 GPU、獨立 GPU 和 NPU 上更快地進行 AI 推斷。最新的 Keras 3.8 版本提供了此功能。
    • OpenVINO模型伺服器現在支援原生 Windows Server 部署,允許開發人員通過消除容器開銷和簡化 GPU 部署來利用更好的性能。

現已棄用

  • 舊版前綴 l_、w_ 和 m_已從OpenVINO存檔名稱中刪除。
  • Python API 的運行時命名空間已標記為已棄用,並指定在 2026.0 中刪除。新的命名空間結構已交付,可以立即進行遷移。詳細資訊將通過警告和文檔進行傳達。
  • NNCF create_compressed_model() 方法已棄用。nncf.quantize() 方法現在推薦用於 PyTorch 和 TensorFlow 模型的量化感知訓練。

安裝說明

您可以根據您的作系統選擇如何安裝OpenVINO™運行時:

下載包中包含的內容

  • 適用於 C/C++ 與 Python API 的 OpenVINO™ 運行時間/推論引擎

有用的連結

注意: 連結將在新視窗中打開。

此下載項目適用於下列產品。

這個頁面的內容綜合了英文原始內容的人工翻譯譯文與機器翻譯譯文。本內容是基於一般資訊目的,方便您參考而提供,不應視同完整或準確的內容。如果這個頁面的英文版與譯文之間發生任何牴觸,將受英文版規範及管轄。 查看這個頁面的英文版。