Twitter新計劃:審視自家算法裡的「無心之失」
The Verge / 周蕾 / 何渝婷編譯
2021-04-16 10:25

Twitter宣布了一項新計劃。

該計劃被稱為「負責任的機器學習」,主要研究Twitter所採用的算法的公平性。

計劃的內容之一,就是由來自公司內部的數據科學家和工程師們,研究Twitter對機器學習的使用如何導致算法偏差,並評估其算法可能造成的「無意傷害」,再將研究結果公之於眾。

「我們正在進行深入的分析和研究,以評估我們使用的算法是否存在潛在危害。」 Twitter在官方文件中寫道。

首要任務之一是評估Twitter圖像裁剪算法中的種族和性別偏見。隨著越來越多的新聞網站和社群媒體採用AI辨識、提取圖片,人們開始注意到許多算法,尤其是臉部辨識中存在的種族偏見。

此前有Twitter用戶指出,在有不同人種的照片中,Twitter的自動圖像裁剪算法,會在選擇預覽推文呈現的縮略圖區域時,更加突出膚色更淺的人像區域。

去年9月,有研究人員發現,點擊這些原始圖片,可以看到其中包含更多其他膚色的人群,但即使改變了原圖中深色人種和淺色人種出現的位置,預覽結果也不會改變。

也有網友認為,出現這一情況是因為算法更傾向於提取圖像中的亮度高和色彩密度大的區域,並不是「歧視」。

針對算法被指控種族歧視一事,Twitter當時回應稱,將展開更多調查,並承諾將其圖像裁剪的機器學習算法開源,接受更多用戶的審查和建議。

技術長Parag Agarwal表示,該算法需要不斷改進,團隊也渴望從經驗中學習。

從上個月起,Twitter開始測試顯示完整圖像而不是裁剪預覽。

但就算Twitter的算法並非「故意」種族歧視,但研發過程中很可能會有一些缺陷導致種族歧視的出現。

NVIDIA的AI研究總監Anima Anandkumar就曾指出,顯著性算法採用的訓練集,是異性戀男性的眼球追蹤的數據,這顯然會將受試者的種族偏見轉移給算法。

此外,Twitter還將研究其內容建議,包括時間線資訊流在不同種族群體中的差異性等。

Twitter表示將與第三方學術研究人員「緊密合作」,分析結果後續將會分享出來,並徵詢公眾的回饋。

目前尚不清楚這一計劃將產生多大影響。Twitter表示,這些研究成果不一定會體現在肉眼可見的產品變化是,更多時候是圍繞他們建構和應用機器學習的方式進行重要討論。

Twitter執行長多西(Jack Dorsey)也曾表示,他希望創建一個算法市場,類似應用程式商店的形式,讓用戶能夠控制自己使用的算法。該公司在其最新的部落格文章中說,他們正處於探索「算法選擇」的早期階段。

不只是Twitter,其實對各大社群媒體平台來說,這是一個迫在眉睫的問題。

受美國國內一些社會事件的影響,立法者向Twitter、YouTube和Facebook施壓,要求他們提高算法的透明度。一些立法者提議立法,要求巨頭們評估算法是否存在偏見。

Twitter決定要分析自己的「算法偏見」,是在Facebook等其他社群網路之後做出的,Facebook在2020年成立了類似的團隊。

此前微軟也曾發生類似事件,早在2018年,微軟在辨識膚色較淺的男性時,準確性就已達到了100%,但在識別深色皮膚女性時,準確率僅為79.2%。

去年六月初,微軟也同樣因為臉部辨識涉及種族歧視,引起了輿論風波。

英國知名女團Little Mix成員Jade Thirlwall發文,猛烈抨擊微軟新聞網站MSN,在關於自己的報導中混淆使用了團內另一位成員的照片。

該篇報導證實是由AI抓取並生成,卻在尋找配圖時把黑皮膚的Leigh和阿拉伯裔的Jade弄混了。

在收到越來越多的的用戶投訴,以及反種族歧視浪潮的升溫之後,許多包括IBM和Amazon在內的一大批科技公司被迫反思系統,尤其是臉部辨識技術中存在的偏見。

本文為雷鋒網權刊登,原文標題為「Twitter新計劃:審視自家算法里的「無心之失」