AI生成的內容可以被區分出來嗎?
騰訊研究院 / 何渝婷編譯
2024-11-08 15:15

當前,辨識AI生成內容的技術手段均未成熟,如何在潛在風險,治理成本、目標成效之間取得合理平衡成為關鍵所在。建議小步試錯,探尋科學的風險管理方案。

內容治理邏輯的擴展:人類原創還是AI生成?  

對於AI生成內容在未來全部資訊內容中所佔比例,不同機構的預測口徑有所不同,從20%-90%不等。

但不容否認的是:隨著生成式AI技術應用的普及,AI生成內容比例正在逐步攀升。

有研究顯示,僅僅從2023到2024的一年間,包含AI生成內容的網頁數量就激增了2848%;與此同時,內容生產模式的變革也在推動著內容治理邏輯的悄然變化,從過去針對內容性質,是否違法有害,擴展至針對內容來源,是否為AI生成。    

在AI生成內容早期階段,大模型廠商從提升模型透明度,支持權利保護等目標出發,嘗試展開標示工作。

特別在版權方面,儘管對AI生成內容的可版權性仍存在較大爭議,但明確其內容性質來源,仍然有助於可能的權利人主張其權益,激勵社會公眾利用新工具進行內容創作;同時,也有利於明確模型廠商與使用主體之間的權責分界,前者在生成階段有更多管控能力,而後者需對生成內容的後續傳播利用承擔更多責任。

政府、社會公眾對標示的推動,主要源於AI生成內容對資訊傳播秩序的潛在風險,AI生成偽造虛假資訊的案例時有發生,如合成虛假災情、新聞擾亂公共秩序,利用AI換臉合成虛假色情圖片、影片,侵犯個人名譽等等。

有害資訊,不論是人類生成,還是AI生成,均可以被傳統的內容治理所覆蓋,同樣可以採取刪除、螢幕等措施最大程度消除其影響。

然而,推動內容治理擴展更重要的考慮是:生成式AI大幅提升了內容生產的效率,多模態內容更豐富、交互更逼真,如果一旦被大規模應用於謠言等虛假內容的製造,將可能造成公眾對於真實資訊的混淆,引發公眾對媒體的普遍不信任。

儘管到今天,AI生成技術在新聞媒體等內容產業的應用程度並沒有此前預想的那麼高,也並未看到AI生成內容對媒體傳播秩序的實際衝擊,但隨著AI的持續推進,這種擔憂仍然是真實存在的。

如何把AI生成內容區分出來? 

區分AI生成內容首先是一個技術問題。目前,辨識的技術路徑主要包括生成內容檢測和來源數據追蹤兩個方向,前者主要通過尋找數位內容所包含的生成特徵來確定內容是否由AI生成或篡改;後者則是通過對數位內容全生命週期的相關資訊(是否由AI生成、修改)的獨立記錄來間接反映數位內容的性質。

然而對於AI內容辨識,目前尚缺乏成熟可靠的技術方案。

1.內容檢測路徑

內容檢測是最為直觀的解決方案,雖然目前在人類的感官層面,AI生成內容與人工創作內容已相差無幾,但是在細節層面,仍然存在著可被機器或者技術專家所覺察的特徵。

在圖像內容中,涉及圖像邊緣、紋理等細節的處理時,AI生成內容會出現像素級的不一致;涉及比例與對稱性、光照與陰影等現實物理特徵時,AI生成內容會出現細微的錯誤;在影片內容中,涉及物體運動軌跡、光照與陰影的變化時,AI生成內容會表現出輕微的不自然、缺乏連貫性或物理規律的異常;同理,在音訊、文本等AI生成資訊中也都存在類似微小的區別。

然而,即使AI生成內容在眾多方面與人工內容存在差異,成熟的、高效且可靠的合成內容檢測技術尚不可得。

評估AI生成內容檢測的技術主要需要考慮以下要素:通用性、可解釋性、效率、穩健性、運算成本等;在圖像領域,已經出現了利用深度學習模型、機器學習模型和統計模型等多種模型進行檢測的技術,但是通用性、穩健性普遍表現不佳。

據報導,使用不同方法在不同的訓練和測試子集中獲得的準確率僅為從61%到70%,當合成圖像經過後處理(如壓縮和調整大小),檢測準確率將會進一步降低,難以在實踐中可靠運作。    

2.數據追蹤路徑  

來源數據追蹤是對「內容性質辨識」的間接解決方案,來源數據追蹤並不依賴內容本身,而是通過對於內容的變動(生成、修改等)進行記錄,從側面反映內容的真實性、完整性,當前的來源數據跟蹤方法主要包括顯式標示和隱式標示。

(1)顯式標示 

顯式標示最大特點是可以直接被人感知,提示告知效果顯著,但其實踐效果還有待評估,顯式標示包括內容標籤和可見浮水印等。

內容標籤與數位內容分離存在(如在特定場景中的周邊提示),無法在生成合成內容的全生命週期都起到區分效果;而可見浮水印僅限於內容的一部分,容易被裁剪或移除;當可見浮水印被應用在整個內容的大部分區域,會降低數位內容的品質。

(2)隱式標示  

隱式標示是指在生成合成內容或數據中添加的,不能被用戶直接感知、但能通過技術手段處理的標示,目前主要有數位浮水印和元數據記錄兩種技術路徑。

數位浮水印是機器可讀的浮水印,可通過對內容進行肉眼不可見的擾動來嵌入附加來源資訊。

基於被擾動方式的不同,可以分為基於LSB的浮水印、離散餘弦變換(DCT)浮水印、LLM浮水印等,但數位浮水印的效果同樣存在疑問,複雜算法生成的浮水印需要大量的運算資源來讀取,成本高效率低;簡單算法生成的浮水印容易被去除和篡改,安全性不足。    

元數據記錄則是另一種方法,通過將內容變動生成的元數據獨立儲存在與數位內容相同的文件中,用以提供於其內容屬性、來源等資訊。

基於獨立儲存的特徵,這種方法雖然相較之下效率更高,但也存在明顯缺陷。首先,元數據需要長時間存儲,還需要投入資源進行管理和查詢優化,增加了成本;其次,元數據原則上可以被任意的添加、修改、抹除,很難保證完整性與真實性。

雖可以通過數位指紋或簽名技術來提升安全性,但這也會帶來額外成本;再次,規避元數據記錄的門檻較低,用戶可以通過截圖或外部設備拍攝等非下載方式繞過元數據記錄。

不論是數位浮水印還是元數據,隱私標示面臨的最大挑戰是其技術目標的實現對治理生態提出了很高要求,考慮到網路傳播鏈路的複雜性,寫入隱式標示,並進行讀取、驗證,最終對用戶進行提示,完成這一閉環需要生態主體的高度協作,兼顧算法的保密性與跨平台的互通標示。

若缺乏成熟的技術和治理規範,不僅不能實現來源辨別的目的,且可能會加劇欺騙或混淆的風險。

產業界對於AI生成內容標示的自發探索

在全球範圍內,人工智慧企業、大型網路平台基於透明度、可信賴等原則,圍繞AI生成內容的標示,已自展開探索。

大模型方面,ChatGPT生成的圖像內容使用元數據記錄進行標示;Meta AI創建或編輯的圖像包含可見浮水印。

網際網路平台方面,Meta規定用戶需要對所分享的包含經數位手段(如使用AI)生成或修改的逼真影片或擬真音訊的內容進行標示,同時,Meta也正在進行相關嘗試,如檢測到的圖像是由平台旗下AI生成,將為其添加標示。

X對於利用AI虛構或者模擬真實人物的媒體內容,或者通過AI改變媒體內容從而扭曲其含義的媒體內容會添加顯式標示,以提供額外的背景資訊或者直接刪除該內容。

國內外的探索實踐,體現了以下共同點:其一、首先選擇在圖像、影片等最可能產生混淆誤認的領域進行嘗試,大模型企業在生成階段對內容進行顯性標示;其二、傳播平台對用戶進行提示,在用戶分享利用AI生成的逼真內容時主動聲明,同時基於元數據等技術探索標示路徑。

此外,國外更多體現為企業自發形成產業聯盟,推進開放的技術標準的形成。

AI生成內容標示:基於動態風險的治理探索  

AI生成內容帶來了與以往完全不同的風險,推動著各方嘗試明確AI生成與人類創造的邊界。然而,針對AI生成內容的標示,目前尚未形成成熟的技術解決方案。

總體上,出於「防患於未然」的風險預防思路,標示工作處於一種自發探索的狀態;與之對應的,在全球治理規則層面,目前大多是一些籠統的原則性要求,對於標示的實現方式尚無細緻規定,從而為實踐探索留有了較大空間。    

1.在不斷試錯驗證的過程中,探尋合理的風險管理方案  

建議採取開放推薦的方式,鼓勵相關主體積極探索包括內容檢測、數位浮水印等在內的多種技術方式,對於元數據的跨主體讀取與驗證方式,通過AB實驗等方式不斷完善,在得到普遍實踐認可的技術框架之後,再逐步進行擴展。

對於標示的反刪除反篡改的攻防,更是一個「魔高一尺,道高一丈」的過程,需要行業各主體進行協同應對。

此外,公眾對標示的瞭解與應用痛點,也決定了標示工作將會在動態中尋求最佳實踐。

2.基於場景區分不同主體的治理角色  

對於AI生成內容,AI生成技術的提供者與部署者具有明確的主體角色差異,需適配不同規則。例如:歐盟《人工智慧法》依據主體角色的不同,相應建立了不同的標示規範。

其第50條2款規定AI系統的提供者應當實現其輸出內容可以以機器可讀的格式標記;第4款規定生成或操縱構成深度偽造的圖像、音訊或影片內容的AI系統的部署者,應當披露該內容是人為生成或操縱的。

可見,前者更強調技術的「開發者」重在提供「機器可讀」的技術方案,「部署者」重在對深度偽造的內容「披露」其性質。

3.避免大而全,將治理資源聚焦在「真正的風險領域」

全面標示聽起來大而美好,但實質上卻可能有礙於標示目的的實現,讓真正具有風險的內容融入普遍被標示的資訊海洋,易使公眾資訊過載,控制風險的作用大打折扣,在此背景下,可考慮限定標示的範圍。

一是在領域上的限定,鑒於AI生成技術的通用性,在資訊傳播領域之外有大量的生成應用(如滿足模型訓練的數據合成、服務於加工潤色目的的AI生成,如地圖、遊戲渲染;B端的AI辦公場景等等),在這些內容傳播風險較小的領域,標示工作並不具有優先緊迫性,或可以通過負擔較小的方式探索。   

二是對標示內容上的限定,將有限資源集中於風險較高的領域。正如Meta的內容政策:「當我們確信部分AI內容不會違反我們的政策時,我們會在審核隊列中刪除這些內容,這使得我們的審核資源可以更多的關注於那些可能違反我們規則的內容。」

過度標示的負外部性已有所浮現。據報導,僅通過圖像編輯軟體的AI功能對照片進行除塵、去斑等微小的操作就會導致照片上傳到社群平台時被標記為「AI生成」。

此類標示可能會引發「反向混淆」,讓公眾將人工創作內容誤認為「生成合成內容」,對於知識產權、人格權益保護乃至公共信任產生不利的影響。

為避免過度標示,還需重點探索「標示的例外規則」。

4.培養公眾在AI時代的「資訊素養」  

多麼完美的辨識規則,最終也只能起到輔助判斷的作用,無法替代公眾對資訊內容作最後的真偽判斷,個人永遠是自己「選擇相信內容」的最終把關人。

資訊爆炸的時代,越需提升對資訊真實與否的敏感度,正如網路原住民比他們的上一輩,會更加謹慎地審視網路資訊一樣,在AI時代,人們更要告別「無圖無真相」的判斷準則。

以標示規則為契機,培養公眾面對網路內容的理性判斷,形成AI時代個人「資訊素養」,是內容治理中更為關鍵的一環。

本文為AI新智界授權刊登,原文標題為「AI生成的內容可以被區分出來麼?