發揮潛力(實際 AI 解決方案)
瞭解功能,並使用 OpenVINO™ 工具組,邁向建立 AI 解決方案的路途。
邊緣 AI 開發開拓許多可能性與使用案例,並實現直接在邊緣裝置部署 AI。進一步探索 Intel 的邊緣 AI 參考工具組,且隨附 Jupyter* Notebook、操作影片、逐步教學課程等其他資訊。
邊緣 AI 參考工具組
使用邊緣 AI 參考工具組開發,或整合工具組至現有應用程式,然後重啟 AI 解決方案。預先組裝的元件可以作為許多產業(例如零售、醫療保健和製造業)的自訂 AI 推斷應用程式基礎。利用最佳做法,您的工作速度會比傳統開發工作流程快。 |
試試看:智慧儀器掃描「物件偵測與分割」
在應用程式建立全新的 AI 推斷功能,即可自動轉換類比資訊為數位資料,提升分析的準確度與可靠性。能源、製造等產業,或任何使用類比儀器的行業,均可透過電腦視覺自動讀取儀器。
解決方案概要(2:46)
這個範例說明智慧儀器掃描物件偵測與分割的實用做法。
技術操作說明(8:50)
深入瞭解如何使用並自行嘗試範例程式碼。
試試看:智慧排隊管理 YOLO* v8 物件偵測與計數
使用物件偵測 AI、計數與決策,建立多功能的 AI 推斷應用程式。偵測並計算排隊人數,縮短等候時間,改善顧客滿意度,同時最佳化人力資源。零售、醫療保健等產業,或任何需要物件偵測與物件計數的行業,均可使用電腦視覺管理隊伍。
解決方案概要(2:40)
觀看 YOLO* v8 物件偵測實用實作的範例。
技術操作說明(19:32)
進一步探索並瞭解如何自行嘗試範本程式碼。
進一步瞭解 OpenVINO 工具組
使用這個開源 AI 工具組,最佳化並部署 AI 推斷解決方案。
- 使用通用 API,充分運用加速器可用的運算,加速 AI 推斷並最佳化熱門硬體平台的部署。
- 選擇各種預先訓練的模型,可為您的使用案例和慣用架構(例如 TensorFlow* 或 PyTorch*)帶來靈活性。
- 使用訓練後量化技術,重新訓練或微調模型。
認識 Intel 的推斷創客專家
立即認識 AI專家團隊,他們會引導您完成 OpenVINO™ 工具組與深度學習 AI 推斷解決方案的實際使用案例。
Raymond Lo
電腦工程博士、美國聖荷西 AI 創新技術企業家
Paula Ramos
工程博士、美國北卡羅萊納州電腦視覺科學家
Anisha Udayakumar
印度清奈 AI 創新技術顧問、系統工程師
Adrian Boguszewski
英國史雲頓電腦科學工程師、深度學習專家
Zhuo Wu
電子學博士、中國上海教授暨研究科學家
親眼見證:OpenVINO 工具組的實際應用
瞭解 Intel 如何與其他企業合作,使用 OpenVINO 工具組打造成功的事業。
Megh Computing 使用 AI 影片分析優化營運。
PreciTaste* 使用 AI 精確預測快餐店(QSR)食品生產。
攝影型開車快取儀器協助 QSR 最佳化食品生產。
支援、資源與常見問答集
您可以向 GitHub 存放庫回報 OpenVINO 工具組問題。如果是邊緣 AI 參考工具組問題,請加入 OpenVINO 筆記本存放庫或 Intel 支援論壇的討論。
Intel 提供特定 AI 的邊緣 AI 參考工具組使用案例,例如智慧儀器掃描、即時異常偵測與智慧排隊管理, 並定期新增其他使用案例。使用物件偵測、物件分割及日後納入的功能(例如生成式 AI),善加利用即時電腦視覺建立 AI 推斷解決方案。
這些工具組使用預先訓練的最佳化模型,加速熱門平台的 AI,並有詳細文件、操作說明影片、程式碼範例與 GitHub 存放庫。這些工具組有助您加速部署、採用流程並節省時間。
OpenVINO 工具組可加速 AI 模型壓縮流程使用案例,然後在各種硬體平台部署這些案例。這個工具加快 AI 推斷解決方案開發,更有利您將想法化為實際的 AI 應用程式。
是的。OpenVINO 工具組編譯模型可在各種裝置上執行,提供單次編寫程式碼的靈活性,以及跨 CPU、GPU、VPU 和其他加速器部署模型。
若要獲得最佳效能,請務必正確設定系統,並安裝目前版本的 GPU 驅動程式。請參閱指南「如何在 Windows* 或 Ubuntu* 上安裝 Intel GPU 驅動程式」。
注意 請參閱指南安裝驅動程式並設定系統,再使用 GPU 型 AI 推斷的 OpenVINO 工具組解決方案。
本指南在搭載 Intel® Arc™ 顯示晶片和 Intel® Data Center GPU Flex Series 的 Ubuntu 22.04 LTS 與 Windows 11 系統上經過測試。若要使用 OpenVINO 工具組 GPU 外掛程式並卸載 Intel GPU 推斷,請正確設定系統上的 Intel® 顯示晶片驅動程式。
Intel 推出的新系列獨立 GPU 不僅適用於遊戲,更可執行邊緣 AI 或在伺服器上執行。
OpenVINO 工具組的外掛程式架構支援協力廠商與 Intel 平台的 AI 推斷最佳化。請在此查看支援裝置的完整清單。
這個工具組已將效能最佳化。OpenVINO 工具組執行運算密集、深度學習模型時,對準確度的影響是微乎其微, 而且功能提供極致的效率,例如第 12 代及更新版本的 Intel Core 處理器搭載的自動裝置外掛程式或執行緒排程。
OpenVINO 工具組與多種架構和標準協定高度相容。OpenVINO™ 模型服務使用的架構與 TensorFlow* Serving 和 KServe 相同,所以新式工作負載部署的可擴充性更高。
OpenVINO 工具組可大幅縮短處理輸入資料和產生預測輸出的時間。加速決策,同時提升系統互動效率。
OpenVINO 透過模型轉換 API 與 NNCF 提供多種最佳化技術,提升效能並降低延遲。
參閱「模型最佳化指南」,瞭解各種模型壓縮選項,例如量化感測訓練、訓練後量化等其他資訊。
OpenVINO 工具組的 OpenVINO 模型服務讓您可託管模型,及高效部署各種硬體的應用程式。您可以隨時加入 AI 推斷加速,不必重寫程式碼。
- 透過標準網路協定,您的模型已可在 KServe 也使用的通用 API 存取。
- 遠端 AI 推斷可以建立輕量用戶端,集中於 API 呼叫,而且不需頻繁更新。
- 您不必依賴模型架構、硬體和基礎結構,即可開發、維護應用程式。
- 更方便存取模型控制,因為不透過用戶端應用程式公開拓撲和權數。
- 這種部署結構實現更高效的橫向和縱向 AI 推斷擴充。
您可以使用全套工具和資源簡化工作流程,同時利用 OpenVINO 最佳化 AI 推斷與 AI 模型實際的效能。