負責任 AI
實現符合倫理且公平的 AI 需要一套以人員、流程、系統、資料和演算法為核心的周全方法。Intel 正在設計 AI 以降低風險並提升最佳化對社會的益處。
我們的觀點
Intel 始終認為和技術開發相關的倫理和人權非常重要。在 AI 技術的開發中尤其如此,為此我們持續致力於發展最佳方法、原則和工具,確保在產品開發與部署中採取負責任的做法。
我們的方針
我們相信負責任的開發必須是整個 AI 生命週期的創新基礎,確保 AI 以安全、永續且符合道德規範的方式設計、建置、部署和使用。隨著 AI 發展日新月異,我們的 RAI 工作也不斷發展。
Intel 資深研究員暨 Intel 實驗室智慧系統研究實驗室主任 Lama Nachman 講述 Intel 如何精煉其負責任 AI 的方法
負責任 AI 的支柱
Intel 致力於負責任地發展 AI 技術。為此,我們在整個開發生命週期中利用嚴格的多領域審查流程、建立多元化的開發團隊以減少偏見,並與產業夥伴合作,減少 AI 的潛在有害使用方式。我們致力於實施基於國際標準和產業最佳實務的領先流程。AI 已發展很長一段時間,但隨著技術的演進,仍有許多待探索的領域。我們不斷尋找使用這項技術的方法,推動積極變革並盡量降低風險。我們持續與學術界和產業夥伴合作,推進這個領域的研究,同時發展平台,使負責任的 AI 解決方案在運算上可追蹤且效率高。
內部與外部治理
在內部,我們的多領域顧問委員會透過七大原則審查各種開發活動:尊重人權;實現人力監督;實現透明化與可解釋性;提升保全、安全性和可靠性;注重隱私的設計;促進公平與包容性;以及保護環境。在外部,根據 Intel 全球人權原則,當我們發覺 Intel 產品的使用方式違反這些原則時,Intel 將採取適當行動減少此類濫用行為,包括限制或停止 Intel 與業務夥伴的業務往來,直到且除非我們有充分信心 Intel 產品未用於侵犯人權。
研究與合作
我們與全球學術夥伴合作,在隱私、安全、人類/AI 合作、對媒體的信任、AI 永續發展、可解釋性與透明性等領域進行研究。此外,我們持續在產業範圍內領導發表出版物、推動合作與合作夥伴關係,更深入瞭解 AI 的影響並克服全球挑戰。
我們重視與內容證明與真實性聯盟(C2PA)等協會;AI 合作夥伴關係;MLCommons® AI 安全工作小組、人權與 AI 商業圓桌會議(需要登入);NIST 美國 AI 安全研究所聯盟等協會;以及其他多利益關係人計畫的互動與合作,不僅以公司為單位,更以產業為單位推動這項工作向前發展。
我們也建立了 Intel 負責任人類 AI 系統卓越中心(RESUMAIS)。這項長達數年的努力匯聚了四大頂尖研究機構,包括德國人工智慧研究中心 DFKI、資訊技術研究中心 FZI、漢諾威萊布尼茲大學以及歐洲學習與智慧系統實驗室(ELLIS)阿利坎特,旨在促進 AI 倫理和以使用者為中心的發展。
產品與解決方案
我們開發平台與解決方案,讓負責任的 AI 可在運算上追蹤。我們建立軟體工具,減輕負責任的 AI 開發負擔,並探索不同的演算方法,改善隱私、安全性和透明性,並減少偏見。為此,我們進行民族學研究,瞭解痛點並採取適當措施因應。
閱讀更多 Intel® Trust Authority 的資訊
包容性 AI
我們瞭解 AI 開發和部署需要具備公平、包容性與文化敏感性。我們努力確保從事這些技術的團隊多元化且具包容性。例如,透過 Intel 的數位準備就緒計畫,讓學生參與其中,提升對負責任 AI、AI 倫理原則和方法的認識,以開發負責任的 AI 解決方案。AI 技術領域應該由多元化的人口、觀點、聲音和經驗來開發並提供資訊。因此我們積極與社區大學合作,提供機會讓 AI 技術普及化。在美國高等教育系統中,這些學校吸引來自各種背景和專業知識的學生。我們不斷尋求新的方式與受 AI 等新技術影響的各界人士互動。