英國智庫「公共政策研究所」在今年一月底提出一項引人注目的建議,要求AI生成的新聞內容必須附上類似食品營養標籤的資訊標示,清楚說明這些答案是根據哪些來源產生的,包括是否引用了同儕審查的研究或專業新聞機構的報導。這個提議看似單純的標籤制度,實際上觸及了當代最棘手的問題,當AI逐漸取代網站內容,成為人們獲取資訊的主要管道時,我們該如何確保資訊的品質和新聞產業的生存?
這場爭議的核心之一在於商業模式的崩解,Google的AI摘要功能現在每月觸及20億用戶,很多人開始使用AI來獲取資訊。問題是當使用者看到AI產生的摘要答案後,還有多少人會點進原始新聞網站?點擊率下降直接衝擊新聞機構的廣告收入,這個產業賴以維生的商業模式正在瓦解。更諷刺的是AI提供的答案往往就是從這些新聞網站抓取內容後重新組合而成。換句話說,科技巨頭一邊吸走流量和收入,一邊還要依賴新聞機構持續產出內容。
授權協議看似是解方,實則埋藏陷阱。研究顯示,與OpenAI簽訂授權協議的「衛報」和「金融時報」,在ChatGPT的回答中被引用的比例明顯較高,前者甚至出現在近六成的回應中。這引發一個令人不安的問題,財務關係是否正在影響AI提供資訊的公正性?當大型媒體集團能夠透過授權協議確保自己的內容被優先引用,地方新聞和中小型媒體將更難獲得曝光,資訊的多元性也將受到威脅。
更麻煩的是,授權協議本身就是一把雙面刃。雖然能在短期內彌補部分廣告收入損失,卻也讓新聞機構變得更依賴科技巨頭。一旦版權保護被削弱或政策改變,這些收入隨時可能消失。這種依賴關係本質上是不對等的,新聞機構的議價能力遠遠不如掌握技術和流量的科技公司。
英國政府在去年底提出的版權改革方案,更凸顯了這種失衡。這項提案建議採用「退出機制」,除非創作者主動聲明保留權利,否則AI公司預設可以使用任何內容來訓練模型。但創作者要如何追蹤自己的作品是否被使用?要如何證明某個AI模型確實使用了自己的內容進行訓練?對於大型出版社或許還能投入資源應對,但對個體創作者和小型工作室而言,這幾乎是不可能的任務。所謂的「權利保留」最終可能只是徒具形式,實際受益的仍然是有能力談判和監督的大型權利持有者。
營養標籤的提議至少試圖重建透明度,當使用者知道AI的回答是基於哪些來源產生的,就能自行判斷資訊的可信度。這種做法也能讓原創內容的貢獻被看見,而不是被AI黑箱作業所掩蓋。但標籤本身無法解決根本問題,就像食品標示營養成分不代表消費者會選擇健康飲食一樣,資訊來源的透明也不保證使用者會重視優質新聞的價值。
真正需要面對的問題是我們是否願意接受一個由科技巨頭壟斷資訊詮釋權的未來?如果新聞產業因為無法生存而逐漸萎縮,誰來進行深度調查報導?誰來監督政府和企業?AI可以整合資訊,但無法替代記者實地採訪、查證事實、挖掘真相的工作。
或許答案不在於選邊站,而在於重新定義價值交換的方式。強制授權、公共補助、新型商業模式,這些都可能是解方的一部分。重點是要認清資訊的生產需要成本,品質內容值得被付費,而一個健康的民主社會,不能建立在免費剝削創作者勞動的基礎上。當AI成為新聞的來源,我們更需要清楚地守護真相與創作的價值。
