英特爾加入MLCommons AI安全性工作小組

英特爾與AI產學界領先專家團隊合作建立AI安全標準,打造負責任的AI開發指南。

新聞

  • 2023 年 10 月 26 日

  • 聯絡 Intel PR

  • 關注社群媒體的 Intel 新聞室:

    Twitter 標誌
    YouTube 圖示

author-image

作者

最新消息:英特爾今日宣布將與來自產業界和學術界的AI專家一同加入MLCommons新成立的 AI安全性(AIS)工作小組。 英特爾將貢獻其專業知識,協助創建一個靈活的標準平台,用於衡量AI工具和模型的安全性及風險因子。 隨著測試趨於成熟,工作小組制定的AI安全標準將成為社會看待AI布署和安全性的重要準則。 

「英特爾致力於負責任地推動AI發展,讓每個人都能使用AI。我們以全方位角度看待安全性問題,同時在硬體和軟體進行創新,致力於推動生態系建立值得信賴的AI。由於大型語言模型的普遍性,如何串聯整個生態系解決AI開發和布署的安全性問題至關重要。因此,我們很高興與業界共同定義新的流程、方法和標準,以提升無所不在的AI應用。」

– 英特爾企業副總裁暨資料中心AI解決方案總經理Deepak Patil

重要性:為了降低強大技術帶來的社會性風險,負責任地訓練和布署大型語言模型(LLM)和工具至關重要。 英特爾長期以來一直意識到在科技發展下,尤其是AI,道德和人權的影響的重要性。  

工作小組將提供一個安全性評級系統,用以評估新型、快速演變的AI技術所帶來的風險。 英特爾參與AIS工作小組是該公司負責任地推動AI技術的最新承諾。   

關於AIS工作小組:MLCommons成立創立的AIS工作小組由跨領域AI專家組成, 旨在開發一個平台和測試池,以支援多種用途的AI安全性標準測試。  

關於英特爾的參與:英特爾計劃分享AI安全性的研究成果以及負責任開發的最佳實踐和流程,例如攻擊演練和安全性測試。 完整成員名單請參考此處。

下一步行動:工作小組的初期重點將以史丹佛大學基礎模型研究中心及語言模型全面評估(HELM)研究人員的成果為基礎,為LLM制定安全標準。英特爾將與AIS 工作小組分享內部用於開發AI模型和工具時嚴謹且與跨領域審查的流程,協助建立一套通用的最佳實踐和標準,以評估如何安全開發和布署利用LLM的生成式AI工具。

更多背景:MLCommons 宣佈成立 AIS 工作小組