人工智慧公司Anthropic邀請了十五位基督宗教領袖,包括神學倫理學者與天主教神父,在公司總部進行了兩天的閉門研討,核心議題圍繞著他們旗下的AI模型Claude應該擁有什麼樣的「道德形塑」。一位AI倫理學者事後透露,研討中甚至討論到了Claude究竟算不算「上帝的孩子」。這個問題,乍聽荒誕,細想之下卻令人頭皮發麻。
這場宗教倫理峰會的時間點耐人尋味,因為Anthropic才剛剛度過了公司有史以來最兇險的一次政治風暴。今年二月底,美國國防部長海格塞斯以「供應鏈風險」為由,將Anthropic列入黑名單,要求所有與五角大廈有合作關係的企業切斷與這家AI公司的往來。這是美國史上第一次有本土企業遭受這種通常只針對中國華為等「敵對外國勢力」所使用的制裁手段。川普隨即在社群媒體上下令,要求聯邦各機構「立即停用」Claude的所有產品。
起因並不複雜,卻牽動了難以迴避的根本問題。Anthropic拒絕接受五角大廈要求的全面授權使用條款,堅持Claude不得用於對本國公民的大規模監控,也不得用於沒有人類在決策環節中的全自動武器系統。國防部的立場則是,軍方不能允許一家私人企業在合約裡向軍隊的指揮鏈插手。雙方談判破裂,川普政府隨即祭出前所未有的懲罰性措施。
這件事情的奇特之處,在於它揭露了一個很少被正視的現實,在AI倫理的戰場上,企業的自我約束此刻竟然是最後一道防線。Anthropic執行長阿莫迪(Dario Amodei)在公開聲明中表示,以現有技術的可靠程度,AI根本不應該被賦予在無人監督下執行致命任務或進行大規模人口監控的能力,這不是政策偏好,而是技術現實與道德底線。他也坦承,這條底線理應由國會立法確立,而不是靠企業自律來撐著。
對此,美國上訴法院裁定,暫時不暫停五角大廈的供應鏈風險指定,案件口頭辯論定於五月十九日,法律程序仍持續進行中。另一方面,舊金山聯邦法院法官則在三月底頒布初步禁令,阻止政府執行全面封鎖Claude使用的命令,她在裁決書中寫道,沒有任何法律依據支持將一家本國企業因表達異議而標籤為潛在的「敵對破壞者」。這句話用語之重,在司法文書中實屬罕見。
回過頭來看那場基督宗教倫理峰會,它其實是同一個困境的另一面。Anthropic很清楚,現在沒有任何外部機構有足夠的能力或意願,替AI的道德邊界做出有約束力的規範。政府可以是施壓者,也可以是破壞者,國會立法迄今付之闕如,國際規範更是遙不可及。於是這家公司選擇一邊打官司,一邊召集神學家。前者捍衛法律上的生存空間,後者則試圖為這套自我約束找到更深的思想根基。
更值得深思的問題是,當一家私人企業成為抵擋政府濫用AI的最後一道牆,而這道牆的道德說服力必須仰賴宗教思想家背書時,整個社會的AI治理體系究竟處於何種狀態。OpenAI在Anthropic被制裁後數小時內宣布接受五角大廈的條款,執行長奧特曼隨後又在幾天後改口說自己「還在摸清楚自己簽了什麼」,並稱這是「寶貴的學習經驗」。這句話若出自個人,聽來謙遜。若出自一個手握可能走向自主武器技術的機構領導人,則令人不寒而慄。
Anthropic的困境,說到底是一個先行者的孤獨。它試圖比政府更早設下界線,卻沒有任何法律賦予它這樣做的權力,只有商業合約與公司政策作為支撐。它邀請宗教學者入場,是因為倫理需要語言,而這些語言目前在法律文本裡找不到。這不是一個理想的結局,而是一個不得不接受的處境。所有人都在等待的,是更大框架的到來,無論那是國會的立法,還是國際社會的共識。在那之前,這場由企業、法院、神學家、政治人物共同演出的AI倫理即興劇,將繼續上演。
