用戶發現推文照片預覽有「偏見」,Twitter這樣回應
楊麗 / 何渝婷編譯
2020-09-21 09:55

為改善用戶體驗,Twitter很早就開始嘗試用算法自動裁剪照片,使得最終生成的預覽照片,可以呈現整張圖最有趣的部分。

不過最近,Twitter正在調查為什麼其照片預覽,似乎更偏愛白人面孔而不是黑人面孔。用戶發現,裁剪照片預覽的算法存在問題。

幾個Twitter用戶在上週末對該現象進行了演示,並發布了含有黑人和白人面孔的貼文示例。

Twitter的預覽顯示白人面孔,出現得更為頻繁。

例如,當將Barack Obama和Mitch McConnell的照片,附加到推文上時,Twitter似乎專門突出了McConnell的臉。

實際上,當Twitter最早使用算法自動裁剪照片預覽時,相關的機器學習研究人員在部落格中,解釋了臉部辨識是裁剪圖像的過程,但並未詳述圖像中對人臉的生成問題。

「以前,我們使用臉部識別將視角聚焦在可以找到最突出的面孔上。儘管這種啓發式方法還算合理,但由於並非所有圖像中都有人臉,因此該方法存在明顯的侷限性。此外,我們的臉部辨識系統經常會漏掉,有時甚至在沒有人臉時會錯誤地檢測到人臉。」

Twitter設計長Dantley Davis發表推文表示,該公司正在嘗試改進算法,並對圖像生成進行實驗:「儘管這次測試並不算科學,只是個例,但它指出了我們接下來需要研究的一些變量。現在兩個男人的西裝都一樣,手卻被遮蓋住了。」

Twitter團隊的Liz Kelley周日表示,該公司已經測試了上述問題,但尚未發現的有種族偏見或性別偏見的證據。「很顯然,我們還有很多工作要做。我們將開源這項工作,以便其他人可以審查和復現。」

Twitter技術長Parag Agrawal則表示,該算法模型仍需要不斷改進、從實驗中學習。

顯然,為了真正評估該模型是否存在偏見,研究人員需要在各類情況下,使用大量實例和樣本進行研究。

不過,Twitter的工程師Zehan Wang提到,2017年該算法部署之前就被發現存在偏見,但並未達到「顯著」水平。

2018年,Twitter發表的一篇部落格文章中,解釋了算法是如何影響的照片預覽的生成。導致算法選擇某一類圖像的原因之一,是具有明顯的反差性,這可以解釋為什麼算法似乎偏愛白人面孔的原因。

本文為雷鋒網授權刊登,原文標題為「用戶發現推文照片預覽有「偏見」,Twitter回應