歐盟針對全球首個AI監管法達成初步協議,重點一次看!
安晶 / 何渝婷編譯
2023-12-11 11:25

當地時間12月8日,在經過一週的馬拉松式談判和激烈爭論後,歐盟委員會、歐洲議會和歐盟成員國代表針對《人工智慧法案》(AI Act)達成初步協議,新法案涉及包括ChatGPT在內的通用目的AI系統。

這是全球首份針對AI監管的全面法規,意在從保護人類基本權利和不阻礙人工智慧產業發展之間尋求平衡,法案的技術細節內容還在討論中,最終文件沒有對外公布。

根據歐洲議會和歐盟委員會公布的資訊,法案將AI系統分為低風險、高風險、不可接受風險、特定透明度風險等不同等級,按照風險級別制定相應規定。

不可接受風險等級的AI應用將被直接禁止,包括在特定情況下使用生物特徵分類系統和人臉辨識系統,法案還專門針對通用AI系統(general-purpose AI)設置規定,存在系統性威脅的通用AI將接受更嚴格監管。

歐洲議會官網8日的聲明列出了將被禁止的AI應用類型,包括:

  • 使用敏感特徵的生物特徵分類系統,敏感特徵涉及政治、宗教、哲學信仰、性取向、種族。
  • 網路或視訊監控進行無目標的人臉資訊收集以創建人臉辨識數據庫。
  • 工作場所和教育機構進行表情辨識。
  • 根據社會行為或者個人特徵進行社會評分。
  • 操縱人類行為、繞開人類自由意志的AI系統。
  • 剝削脆弱人群的AI系統。

歐盟委員會解釋,對人類基本權利構成明顯威脅的AI系統屬於不可接受風險級別,此類系統將全部禁用。

但在包括人臉辨識在內的生物辨識系統應用中,歐盟的AI法案將允許執法部門在嚴格限制條件下,對涉嫌或者已經被判決犯下重罪的人員進行非即時遠程生物辨識。

執法部門要進行即時生物辨識只能在特定情況下,例如尋找受害人、阻止恐怖襲擊威脅、定位辨識犯下謀殺等嚴重罪行的嫌犯。

高風險級別為有很大可能傷害人類健康、人身安全、基本權利或者破壞環境、民主和法治的AI系統,例如能源領域和醫療機構關鍵基建使用的AI系統,招聘員工、教育機構接收學員的系統,執法部門、邊境管控使用的AI系統,能影響選舉結果和選民行為的系統也被視為高風險。

這類系統在使用時需要符合一系列嚴格要求,包括設立風險緩釋系統、活動日誌記錄、詳細歸檔、詳細的使用者資訊、人類工作人員監督,一旦認為自己的權利受到損壞,公民將有權對相關AI系統進行投訴。

低風險級別系統則為沒有對公民權利或者安全構成威脅或者威脅很小的AI系統,此類系統可以自由使用,例如垃圾郵件過濾器、推薦系統。

特定透明度風險則涉及聊天機器人、深度偽造內容,在提供聊天機器人服務時,提供方需讓用戶知道與自己對話的是機器;深度偽造和其他AI生成的內容則應該被標記說明,提供方在使用表情辨識或者生物特徵分類系統時應該告知用戶。

除此之外,提供方在設計系統時需要將合成的影片、音訊、文字和圖像標注為機器可讀格式,並且能夠被檢測出是AI生成內容。

對於類似ChatGPT的通用AI系統(GPAI)以及相關的GPAI模型,提供方需要製作技術文件、遵守歐盟版權法、披露訓練系統時使用的數據內容匯總。

如果高強度的GPAI模型構成系統性風險,則還需滿足一系列更嚴格要求,包括進行模型評估、對抗測試、降低系統性風險、發生嚴重事故時向歐盟委員會彙報,歐洲議會和歐盟委員會日前公佈的說明,沒有解釋哪些風險屬於系統性風險。

在監督上,歐盟成員國的市場監督部門將負責監督AI法在各國的執行,歐盟委員會則將設立新的歐洲AI辦公室負責成員國間的協調,AI辦公室還將負責監督GPAI模型規則的執行情況。

各企業和機構違反歐盟的AI法將面臨罰款。罰款金額最低為750萬歐元或公司營業額的1.5%,最高3500萬歐元或公司全球營業額的7%。

之後,歐盟代表還將對AI法案的部分技術細節進行完善,最終文本或有所調整,確定法案最終文本後,歐洲議會和歐盟委員會將對法案進行投票,法案全部實施最早預計需到2025年,彼時AI領域很可能已經有了新的發展。

歐盟科技領域部分人士指責新的AI法案阻礙產業發展、浪費企業資源,科技產業組織「數位歐洲」總幹事博內費爾德-達爾(Cecilia Bonefeld-Dahl)認為歐盟AI法的嚴苛要求會讓科技公司為遵守法律而耗費大量資源,還需要花更多錢請律師而不是聘請AI工程師。

但人權組織不滿歐盟的法案存在諸多漏洞,沒有規範AI系統在移民和邊境管控上的使用,還為企業避免系統被定為高風險提供了操作空間。

雖然不完美,但歐盟的首個AI法將成為其他國家的重要參考。

美國媒體指出,歐盟此前推出的數位隱私法案、數據保護規定已經讓部分美國科技公司調整了歐盟外的用戶數據處理流程,美國也在探索制定自己的AI法。

本文為界面新聞授權刊登,原文標題為「歐盟就全球首個AI監管法達成初步協議,有哪些乾貨?