Facebook靠人工智慧刪除仇恨言論?內部文件稱只能刪掉2%
界面天下 / 何渝婷編譯
2021-10-19 11:05

作為世界上最大的社群媒體平台,Facebook一向表示,人工智慧在內容審查,刪除仇恨言論等方面發揮著至關重要的作用。但《華爾街日報》獲取的公司內部文件發現,事實並非如此。

這篇10月17日發表的報導,援引Facebook內部文件稱,該公司使用的人工智慧難以持續準確辨識第一人稱的射擊影片、種族主義言論、甚至無法分辨鬥雞和車禍。

在仇恨言論方面,Facebook員工也在文件中指出,人工智慧只能刪掉極少一部分。公司一位研究人員在2019年的報告中指出,公司自動化刪除的貼文,只佔違反規則的仇恨言論總數的2%,「除非戰略發生重大變化,否則在短期內很難將這一比例提高到10~20%以上。」

今年3月,據另一個Facebook團隊得出類似的結論,估計人工智慧只能刪除平台上3%到5%的仇恨言論,以及0.6%違反Facebook反暴力政策的內容。

文件還顯示,兩年前,Facebook縮短了人工處理用戶仇恨言論投訴的時間,並進行了其他調整,從而減少了投訴的總數。負責審查業務的員工成本為每週200萬美元,或每年耗資1.04億美元。該公司由此更加依賴人工智慧執行其規則,並誇大技術在其公開統計數據中的成功。

Facebook副總裁羅森(Guy Rosen)發文反駁稱,在過去三年中,該平台上仇恨言論的流行程度下降50%,而且「打擊仇恨言論的技術不充分,故意歪曲技術進步」的說法有誤。

按照羅森的解釋,目前Facebook上每10000內容瀏覽量中,有5個包含仇恨言論,比2020年中期每10000內容瀏覽量含10個的水準大幅下降。

該公司上個月還表示,其人工智慧系統在「主動刪除違反仇恨言論標準的內容」方面效果越來越好,刪除的內容比2017年增加15倍。

向《華爾街日報》洩露內部文件的「吹哨人」,是原Facebook數據專家豪根(Frances Haugen)。她在本月初出席美國國會聽證,表示Facebook故意隱瞞了令人擔憂的研究成果,例如青少年在使用其產品後自我感覺變差,Facebook樂意使用包含仇恨意味的內容吸引用戶等,她希望議員對這家全球最大的社群網路公司採取行動。

而Facebook回應稱,豪根的說法有誤,同時國會的確應該採取行動為互聯網制定標準,不要指望「互聯網產業做出屬於立法者的社會決定」。

本文為界面新聞授權刊登,原文標題為「Facebook靠人工智能刪除仇恨言論?內部文件稱只能刪掉2%