推特“頭像裁剪”算法更愛“白幼瘦”!瑞士小哥用StyleGAN2識破算法癖好,登頂懸賞賽
如今,社交媒體當?shù)馈?/p>
相信不少人在首次注冊社交媒體時,平臺都會要你上傳一張照片當做頭像。
有人會選擇喜歡的明星,也有人會用自己的真實照片。
但這都不是最關鍵的,可能你沒有發(fā)現(xiàn),在上傳頭像照片時,平臺對某些照片存在不同程度的偏好。
比如,某些平臺內置的算法會偏愛膚色較淺、紋理較光滑且沒有戴眼鏡的照片,或者是更年輕的面孔:
而這已經(jīng)在推特得到了證實。
根據(jù)國外多家媒體報道,推特的照片裁剪算法存在較大的漏洞,算法在預覽和聚焦不同照片中的“亮點”時,對膚色、胖瘦、性別和年齡有不同的優(yōu)先級。
也就是說,算法會更偏好“膚色更淺、更苗條、更年輕”的面孔,而不是“膚色更深、臉型更寬、年紀更大”的面孔。
對此,有網(wǎng)友指出,如此看來,算法也稱得上是某種極端主義者了。
用StyleGAN2拆解推特算法的偏好
這個研究結果來自瑞士聯(lián)邦洛桑理工學院的研究生Bogdan Kulynych。
在推特贊助的“算法漏洞懸賞大賽”中,Kulynych發(fā)現(xiàn),推特的照片裁剪算法對照片中的特征存在不同程度的偏好。
Kulynych使用StyleGAN2生成了大量逼真的面孔,他根據(jù)膚色、身材、年齡和女性化等標簽對這些面孔進行了分類,然后將這些數(shù)據(jù)放入了推特的照片裁剪算法中。
Kulynych發(fā)現(xiàn),推特的算法對膚色有著最為明顯的偏好趨勢,算法更喜歡那些“苗條、年輕、具有典型女性面部特征”的面孔。
其次便是年齡,該算法對灰頭發(fā)和白頭發(fā)的用戶存在明顯的歧視行為。緊接著的是圖片中的文字,相較于阿拉伯數(shù)字,算法會更喜歡英語。
GitHub鏈接:
https://github.com/bogdan-kulynych/saliency_bias
Kulynych在總結中補充說:“當應用算法時,這些內部偏見本質上會轉化為代表性不足的危害,從而剔除那些不符合算法對體重、年齡、膚色偏好的人。”
Kulynych在大賽中獲得了第一名,推特稱Kulynych的發(fā)現(xiàn)“展示了算法模型如何放大現(xiàn)實世界的偏見和社會對美的期望”。
推特不喜歡iPhone?漏洞得到官方承認
在更早的時候,相關漏洞就已經(jīng)被指出。
去年,一位推特用戶試圖發(fā)布他在Zoom的面部識別中注意到的一個問題,即在通話中沒有顯示出一位黑人同事的臉,當他發(fā)帖到Twitter上時,他注意到推特同樣更偏向于他的臉而不是黑人同事的臉。
這對卡通人物同樣適用。
甚至,還有網(wǎng)友發(fā)現(xiàn),與iPhone相比,推特的算法更傾向于顯示微軟已停產(chǎn)Windows手機。
當推特首次上線照片裁剪功能時,研究人員在博客文章中解釋了他們如何從面部識別開始裁剪圖像,但實際上,并非所有的圖像都包含人臉。
此外,人臉檢測器會經(jīng)常漏掉人臉,也會在沒有人臉的情況下錯誤地檢測到人臉。如果沒有發(fā)現(xiàn)人臉,視角會自動地被聚焦在圖像中心,這可能會導致尷尬的裁剪圖像。
隨后,推特官方也進行了調查,他們發(fā)現(xiàn):
在男性和女性之間,人口統(tǒng)計學上的平等偏向于女性的差異為8%;
在黑人和白人的比較中,白人和黑人的人口比例相差4%;
在黑人女性和白人女性的比較中,白人女性在人口平等方面的差距為7%;
在黑人和白人男性的比較中,白人男性在人口統(tǒng)計學上有2%的差異。
同時,推特還通過隨機選擇100張男性和女性呈現(xiàn)的圖像來測試“男性凝視”,這些圖像在圖像中具有多個被算法識別為顯著的區(qū)域,并觀察模型如何選擇裁剪圖像。
他們發(fā)現(xiàn),每組每100張圖像,沒有裁剪到頭部位置的情況大約3張,在這種情況下,算法會裁剪圖像的其他特征,例如運動衫上的字母。
5月,推特下線了圖片裁剪功能,只允許用戶完整地發(fā)布照片,或自己決定如何裁剪照片。
“我們的結論之一是,并不是推特上的所有東西都適合使用算法,在這種情況下,如何裁剪圖片是一個最好由人做出的決定。”推特軟件工程總監(jiān)Rumman Chowdhury在一篇關于該團隊發(fā)現(xiàn)的博文中寫道。
Chowdhury表示:“當我們考慮模型中的偏見時,不僅僅是關于學術或實驗,而是它與我們在社會中思考的方式有關。”
如何對待算法偏見?
近年來,隨著人工智能的逐漸發(fā)展,算法偏見也開始得到了重視。
對于此,英國謝菲爾德大學計算機專家Noel Sharkey表示,應該在可能改變生活方式的所有領域中禁止使用算法。
Sharkey對一系列機器學習系統(tǒng)存在偏見的現(xiàn)象深表擔憂,Sharkey表示:“現(xiàn)在有很多偏見發(fā)生,從工作面試到社會福利,再到?jīng)Q定誰應該保釋誰應該入獄等等,很明顯我們必須停止使用決策算法。我一直對監(jiān)管非常重視,我認為它會扼殺創(chuàng)新。”
“但后來我意識到,有些創(chuàng)新應該被扼殺,或者至少要有所保留。因此應該暫停所有影響人們生活的算法,這些算法并沒有在發(fā)揮實際用處,反而在加深人們的偏見。”
Sharkey曾與谷歌和微軟等公司就偏見問題進行了交談,“他們知道這是一個問題,過去幾年他們也一直在努力尋找解決方案,但到目前為止還沒有找到”。
“在實驗室里,系統(tǒng)可以對白人男性的識別率達到98%,但女性的識別率會偏低,深色皮膚的人效果會更下一層樓。在后面兩種情況下,我們都可以說,系統(tǒng)并不能準確識別人臉。”
歸根結底,算法背后是人,算法偏見背后其實就是人的偏見,算法的選擇也就是在大數(shù)據(jù)處理之后人的選擇。在針對相關現(xiàn)象進行批評時,更應需要關注現(xiàn)實中的偏見,保持內省。
這對每個人來說,都極為重要。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規(guī)范轉載侵權必究。
未經(jīng)授權嚴禁轉載,授權事宜請聯(lián)系作者本人,侵權必究。
本文禁止轉載,侵權必究。
授權事宜請至數(shù)英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)