訂閱獨家新聞與版本更新發布

搶先瞭解 Intel® 發行版 OpenVINO™ 工具組的新功能。註冊後,您會獲得:

• 搶先體驗產品的更新和版本
• 網路研討會和活動的獨家邀請
• 訓練和教學資源
• 競賽公告
• 其他最新消息

提交這份表單代表您確認自己是 18 歲以上的成人,而且同意與 Intel 分享您的個人資訊以用於本商業申請。Intel 的網站與通訊受到我們的隱私權聲明使用條款規範。
提交這份表單代表您確認自己是 18 歲以上的成人,而且同意與 Intel 分享您的個人資訊以用於本商業申請。您也同意訂閱要透過電子郵件和電話接收最新的 Intel 技術與產業趨勢。您可以隨時取消訂閱。Intel 的網站與通訊受到我們的隱私權聲明使用條款規範。

支援、資源與常見問答集

您可以向 GitHub 存放庫回報 OpenVINO 工具組問題。如果是邊緣 AI 參考工具組問題,請加入 OpenVINO 筆記本存放庫Intel 支援論壇的討論。

Intel 提供特定 AI 的邊緣 AI 參考工具組使用案例,例如智慧儀器掃描、即時異常偵測與智慧排隊管理, 並定期新增其他使用案例。使用物件偵測、物件分割及日後納入的功能(例如生成式 AI),善加利用即時電腦視覺建立 AI 推斷解決方案。

這些工具組使用預先訓練的最佳化模型,加速熱門平台的 AI,並有詳細文件、操作說明影片、程式碼範例與 GitHub 存放庫。這些工具組有助您加速部署、採用流程並節省時間。

OpenVINO 工具組可加速 AI 模型壓縮流程使用案例,然後在各種硬體平台部署這些案例。這個工具加快 AI 推斷解決方案開發,更有利您將想法化為實際的 AI 應用程式。

 

是的。OpenVINO 工具組編譯模型可在各種裝置上執行,提供單次編寫程式碼的靈活性,以及跨 CPU、GPU、VPU 和其他加速器部署模型。

若要獲得最佳效能,請務必正確設定系統,並安裝目前版本的 GPU 驅動程式。請參閱指南「如何在 Windows* 或 Ubuntu* 上安裝 Intel GPU 驅動程式」。

注意 請參閱指南安裝驅動程式並設定系統,再使用 GPU 型 AI 推斷的 OpenVINO 工具組解決方案。

本指南在搭載 Intel® Arc™ 顯示晶片和 Intel® Data Center GPU Flex Series 的 Ubuntu 22.04 LTS 與 Windows 11 系統上經過測試。若要使用 OpenVINO 工具組 GPU 外掛程式並卸載 Intel GPU 推斷,請正確設定系統上的 Intel® 顯示晶片驅動程式

Intel 推出的新系列獨立 GPU 不僅適用於遊戲,更可執行邊緣 AI 或在伺服器上執行。

OpenVINO 工具組的外掛程式架構支援協力廠商與 Intel 平台的 AI 推斷最佳化。請在此查看支援裝置的完整清單。

這個工具組已將效能最佳化。OpenVINO 工具組執行運算密集、深度學習模型時,對準確度的影響是微乎其微, 而且功能提供極致的效率,例如第 12 代及更新版本的 Intel Core 處理器搭載的自動裝置外掛程式或執行緒排程。

OpenVINO 工具組與多種架構和標準協定高度相容。OpenVINO™ 模型服務使用的架構與 TensorFlow* Serving 和 KServe 相同,所以新式工作負載部署的可擴充性更高。

OpenVINO 工具組可大幅縮短處理輸入資料和產生預測輸出的時間。加速決策,同時提升系統互動效率。

OpenVINO 透過模型轉換 API 與 NNCF 提供多種最佳化技術,提升效能並降低延遲。

參閱「模型最佳化指南」,瞭解各種模型壓縮選項,例如量化感測訓練、訓練後量化等其他資訊。

OpenVINO 工具組的 OpenVINO 模型服務讓您可託管模型,及高效部署各種硬體的應用程式。您可以隨時加入 AI 推斷加速,不必重寫程式碼。

  • 透過標準網路協定,您的模型已可在 KServe 也使用的通用 API 存取。
  • 遠端 AI 推斷可以建立輕量用戶端,集中於 API 呼叫,而且不需頻繁更新。
  • 您不必依賴模型架構、硬體和基礎結構,即可開發、維護應用程式。
  • 更方便存取模型控制,因為不透過用戶端應用程式公開拓撲和權數。
  • 這種部署結構實現更高效的橫向和縱向 AI 推斷擴充。

您可以使用全套工具和資源簡化工作流程,同時利用 OpenVINO 最佳化 AI 推斷與 AI 模型實際的效能。