今年五月初,歐盟委員會與歐洲議會達成臨時協議,決定將《人工智慧法》中針對高風險AI系統的相關規定延後實施。原定於今年八月生效的條款,將推遲至二○二七年十二月才適用於獨立系統,嵌入產品的系統則要等到二○二八年八月。這項決定讓外界看到一個耐人尋味的現象,世界上第一部全面性AI監理法律,在正式上路之前就已經開始退縮了。
這不是歐盟第一次在科技監理上踩煞車,過去幾年,歐盟以《一般資料保護規則》為基礎建立起的數位治理聲望,讓許多人相信布魯塞爾有能力馴服科技巨頭。但AI的問題遠比資料保護複雜,不只是法律文字難以定義,連「什麼是高風險」這個最基本的問題,至今各界仍爭論不休。
AI監理之所以困難,首先在於技術本身的流動性。一個語言模型今天被用於客服,明天可能被整合進醫療診斷系統,後天又出現在法院的量刑輔助工具裡。同一套底層技術,在不同脈絡下的風險程度天差地遠。歐盟試圖用「用途分類」來定義風險等級,但現實中AI應用的邊界模糊,幾乎不可能靜態地劃定。這種分類邏輯本身就預設了一個穩定的技術生態,而這個預設從一開始就站不住腳。
其次是跨國競爭帶來的壓力,歐盟此次延遲的背景,離不開來自大西洋彼岸的壓力。美國在川普政府的主導下,明確將AI監管鬆綁列為政策優先,並對盟友施壓,要求不要以法規阻礙AI產業發展。美中兩國在AI領域的激烈競逐,讓歐洲夾在中間左右為難,既擔心過嚴的法規讓本土企業喪失競爭力,又不願意完全放棄自己在數位人權保障上的價值立場。
這種矛盾在歐盟官員的公開發言中清晰可見,塞浦路斯代表歐盟輪值主席國的副部長在協議達成後表示,此次修正有助於降低企業的行政成本,同時強化歐盟的數位主權與整體競爭力。這段話本身就充滿張力,降低企業負擔與強化數位主權,這兩個目標在邏輯上並不必然相容,甚至往往是彼此拉扯的。當你為了保護主權而訂立嚴格規範,企業成本自然上升;當你為了減輕成本而放寬規定,主權保障也就隨之稀釋。
從更廣的視角來看,AI監理的困境其實反映出一個更根本的治理悖論,法律是靜態的,技術是動態的。立法者必須在技術尚未成熟、社會影響尚未顯現的時候,就寫下具有長期效力的規則。這幾乎注定了任何AI法規在通過的那一刻,就已經開始落後於現實。歐盟從二○二一年提出草案到二○二四年正式通過,歷時三年,期間ChatGPT橫空出世,生成式AI徹底改變了全球對AI的認知,逼得立法者不得不在最後關頭倉促加入對「通用AI模型」的規範條文。
台灣在這場全球AI治理辯論中,同樣面臨類似的選擇困境。目前雖已通過AI基本法,但各部會的相關執行細則卻還在摸索。台灣的科技產業深度嵌入全球供應鏈,尤其在半導體與硬體製造上舉足輕重,然而在AI應用層的監理框架上,卻仍處於摸索階段,歐盟的案例提供了一個具體的警示。
但歐盟的退讓也不宜被簡單解讀為失敗,某種程度上,這反映了民主體制在面對快速變遷時的一種調適能力。與其硬推一套尚未準備好的規範,讓企業和主管機關都陷入混亂,不如爭取時間,讓配套措施更加完善。延遲不等於放棄,關鍵在於這段緩衝期被如何運用。
AI監理的真正難題,不在於要不要管,而在於如何在有效規範與保留彈性之間找到動態平衡。過去幾個月,全球各地發生的AI相關爭議,從深偽內容的濫用、招募演算法的歧視問題,到自動駕駛事故的責任歸屬,一再提醒我們放任不管的可怕代價。
歐盟選擇延遲,美國選擇鬆綁,中國選擇在管控框架下加速推進,三種路徑各有其政治邏輯,也各有其潛在問題。沒有任何一個政府找到了完美答案,因為這個問題本身就還沒有標準答案。在這場全球性的監理實驗中,唯一可以確定的是,站在場外觀望的代價,遠比犯錯之後修正更高。
