带玩具逛街时突然按下按钮的故事,丰满的妺妺3伦理播放,新婚人妻不戴套国产精品,大肉大捧一进一出好爽视频百度

推特“頭像裁剪”算法更愛“白幼瘦”!瑞士小哥用StyleGAN2識破算法癖好,登頂懸賞賽

轉載 收藏 評論
舉報 2021-08-17



如今,社交媒體當?shù)馈?/p>


相信不少人在首次注冊社交媒體時,平臺都會要你上傳一張照片當做頭像。


有人會選擇喜歡的明星,也有人會用自己的真實照片。


但這都不是最關鍵的,可能你沒有發(fā)現(xiàn),在上傳頭像照片時,平臺對某些照片存在不同程度的偏好。


比如,某些平臺內置的算法會偏愛膚色較淺、紋理較光滑且沒有戴眼鏡的照片,或者是更年輕的面孔



而這已經(jīng)在推特得到了證實。


根據(jù)國外多家媒體報道,推特的照片裁剪算法存在較大的漏洞,算法在預覽和聚焦不同照片中的“亮點”時,對膚色、胖瘦、性別和年齡有不同的優(yōu)先級。


也就是說,算法會更偏好“膚色更淺、更苗條、更年輕”的面孔,而不是“膚色更深、臉型更寬、年紀更大”的面孔。


對此,有網(wǎng)友指出,如此看來,算法也稱得上是某種極端主義者了。



StyleGAN2拆解推特算法的偏好


這個研究結果來自瑞士聯(lián)邦洛桑理工學院的研究生Bogdan Kulynych。


在推特贊助的“算法漏洞懸賞大賽”中,Kulynych發(fā)現(xiàn),推特的照片裁剪算法對照片中的特征存在不同程度的偏好。


Kulynych使用StyleGAN2生成了大量逼真的面孔,他根據(jù)膚色、身材、年齡和女性化等標簽對這些面孔進行了分類,然后將這些數(shù)據(jù)放入了推特的照片裁剪算法中。


Kulynych發(fā)現(xiàn),推特的算法對膚色有著最為明顯的偏好趨勢,算法更喜歡那些“苗條、年輕、具有典型女性面部特征”的面孔。



其次便是年齡,該算法對灰頭發(fā)和白頭發(fā)的用戶存在明顯的歧視行為。緊接著的是圖片中的文字,相較于阿拉伯數(shù)字,算法會更喜歡英語。


GitHub鏈接:

https://github.com/bogdan-kulynych/saliency_bias


Kulynych在總結中補充說:“當應用算法時,這些內部偏見本質上會轉化為代表性不足的危害,從而剔除那些不符合算法對體重、年齡、膚色偏好的人。”


Kulynych在大賽中獲得了第一名,推特稱Kulynych的發(fā)現(xiàn)“展示了算法模型如何放大現(xiàn)實世界的偏見和社會對美的期望”。 



推特不喜歡iPhone?漏洞得到官方承認


在更早的時候,相關漏洞就已經(jīng)被指出。


去年,一位推特用戶試圖發(fā)布他在Zoom的面部識別中注意到的一個問題,即在通話中沒有顯示出一位黑人同事的臉,當他發(fā)帖到Twitter上時,他注意到推特同樣更偏向于他的臉而不是黑人同事的臉



這對卡通人物同樣適用。



甚至,還有網(wǎng)友發(fā)現(xiàn),與iPhone相比,推特的算法更傾向于顯示微軟已停產(chǎn)Windows手機。



當推特首次上線照片裁剪功能時,研究人員在博客文章中解釋了他們如何從面部識別開始裁剪圖像,但實際上,并非所有的圖像都包含人臉。


此外,人臉檢測器會經(jīng)常漏掉人臉,也會在沒有人臉的情況下錯誤地檢測到人臉。如果沒有發(fā)現(xiàn)人臉,視角會自動地被聚焦在圖像中心,這可能會導致尷尬的裁剪圖像。



隨后,推特官方也進行了調查,他們發(fā)現(xiàn):

  • 在男性和女性之間,人口統(tǒng)計學上的平等偏向于女性的差異為8%

  • 在黑人和白人的比較中,白人和黑人的人口比例相差4%

  • 在黑人女性和白人女性的比較中,白人女性在人口平等方面的差距為7%

  • 在黑人和白人男性的比較中,白人男性在人口統(tǒng)計學上有2%的差異。



同時,推特還通過隨機選擇100張男性和女性呈現(xiàn)的圖像來測試“男性凝視”,這些圖像在圖像中具有多個被算法識別為顯著的區(qū)域,并觀察模型如何選擇裁剪圖像。


他們發(fā)現(xiàn),每組每100張圖像,沒有裁剪到頭部位置的情況大約3張,在這種情況下,算法會裁剪圖像的其他特征,例如運動衫上的字母。


5月,推特下線了圖片裁剪功能,只允許用戶完整地發(fā)布照片,或自己決定如何裁剪照片。


“我們的結論之一是,并不是推特上的所有東西都適合使用算法,在這種情況下,如何裁剪圖片是一個最好由人做出的決定。”推特軟件工程總監(jiān)Rumman Chowdhury在一篇關于該團隊發(fā)現(xiàn)的博文中寫道。


Chowdhury表示:“當我們考慮模型中的偏見時,不僅僅是關于學術或實驗,而是它與我們在社會中思考的方式有關。”


如何對待算法偏見?


近年來,隨著人工智能的逐漸發(fā)展,算法偏見也開始得到了重視。


對于此,英國謝菲爾德大學計算機專家Noel Sharkey表示,應該在可能改變生活方式的所有領域中禁止使用算法


Sharkey對一系列機器學習系統(tǒng)存在偏見的現(xiàn)象深表擔憂,Sharkey表示:“現(xiàn)在有很多偏見發(fā)生,從工作面試到社會福利,再到?jīng)Q定誰應該保釋誰應該入獄等等,很明顯我們必須停止使用決策算法。我一直對監(jiān)管非常重視,我認為它會扼殺創(chuàng)新。”


“但后來我意識到,有些創(chuàng)新應該被扼殺,或者至少要有所保留。因此應該暫停所有影響人們生活的算法,這些算法并沒有在發(fā)揮實際用處,反而在加深人們的偏見。”


Sharkey曾與谷歌和微軟等公司就偏見問題進行了交談,“他們知道這是一個問題,過去幾年他們也一直在努力尋找解決方案,但到目前為止還沒有找到”。


“在實驗室里,系統(tǒng)可以對白人男性的識別率達到98%,但女性的識別率會偏低,深色皮膚的人效果會更下一層樓。在后面兩種情況下,我們都可以說,系統(tǒng)并不能準確識別人臉。”


歸根結底,算法背后是人,算法偏見背后其實就是人的偏見,算法的選擇也就是在大數(shù)據(jù)處理之后人的選擇。在針對相關現(xiàn)象進行批評時,更應需要關注現(xiàn)實中的偏見,保持內省。


這對每個人來說,都極為重要。



本文系作者授權數(shù)英發(fā)表,內容為作者獨立觀點,不代表數(shù)英立場。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規(guī)范轉載侵權必究。
本文系作者授權數(shù)英發(fā)表,內容為作者獨立觀點,不代表數(shù)英立場。
未經(jīng)授權嚴禁轉載,授權事宜請聯(lián)系作者本人,侵權必究。
本內容為作者獨立觀點,不代表數(shù)英立場。
本文禁止轉載,侵權必究。
本文系數(shù)英原創(chuàng),未經(jīng)允許不得轉載。
授權事宜請至數(shù)英微信公眾號(ID: digitaling) 后臺授權,侵權必究。

    評論

    文明發(fā)言,無意義評論將很快被刪除,異常行為可能被禁言
    DIGITALING
    登錄后參與評論

    評論

    文明發(fā)言,無意義評論將很快被刪除,異常行為可能被禁言
    800

    推薦評論

    暫無評論哦,快來評論一下吧!

    全部評論(0條)

    主站蜘蛛池模板: 鄢陵县| 琼中| 五家渠市| 双峰县| 台东县| 九龙城区| 红桥区| 德化县| 荆门市| 涟源市| 卫辉市| 虎林市| 庆阳市| 邻水| 吉木萨尔县| 武山县| 北辰区| 鸡泽县| 平泉县| 许昌县| 安宁市| 高碑店市| 成都市| 祥云县| 芮城县| 中山市| 麻栗坡县| 襄城县| 芜湖县| 桓台县| 襄樊市| 启东市| 鸡泽县| 常熟市| 洞口县| 汝阳县| 千阳县| 内丘县| 富阳市| 温泉县| 嵊泗县|