久热这里只有精-久热这里只精品99国产6_99-久热这里有精品-久热这里都是精品-久热这里-久热影视

 
當前位置: 首頁 » 行業資訊 » 機器人»機器人當裁判,選出全世界最美的人,你能接受么?;
   

機器人當裁判,選出全世界最美的人,你能接受么?;

 46.1K
     [點擊復制]
放大字體  縮小字體 發布日期:2016-09-19   瀏覽次數:393
核心提示:上面是人類的選美比賽【AI世代編者按】全球各種選美大賽選出的佳麗,你是不是一直看不慣?是不是質疑人類太主觀的眼光?曾經幻
    

 

這就是機器人選出的全世界“最好看的人”

 

上面是人類的選美比賽

【AI世代編者按】全球各種選美大賽選出的“佳麗”,你是不是一直看不慣?是不是質疑人類太主觀的眼光?曾經幻想著能有一種客觀標準,能使選美的結果讓所有人驚艷。全球首次由人工智能擔任評委的國際選美大賽,就出自這樣的初衷。但機器人的選擇,也引發了一系列爭議。

這個選美大賽名字為Beauty.AI 2.0,是第一屆由“機器”擔任裁判的國際選美比賽,由一群俄羅斯和香港的青年搞的青年實驗室(Youth Laboratories)發起,該實驗室獲得了微軟和英偉達支持。

 

這就是機器人選出的全世界“最好看的人”

 

Beauty.AI 2.0對來自100多個國家的6000張自拍照進行了評估,借助算法綜合考慮了年齡、皮膚、對稱性等因素,還將參賽者的外貌與演員和模特進行了對比,最終按照年齡和性別對優勝者進行了分組評定。

以下是18至29歲年齡組排名前5的女性:

 

這就是機器人選出的全世界“最好看的人”

 

機器人的“審美”

看到這樣的結果,你的內心是崩潰的,對不對?這不是你一個人的感覺,相信絕大多數人看到這個結果內心都會蹦出一個字。

Beauty.ai表示,很多選手都寫信表示抗議,其中一人寫道:“你們的‘機器人’價值何在?隨便逛逛商場,我就能找到比你們的選美大賽‘優勝者’更漂亮的人。”

Beauty.ai首席科學家亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)則辯稱:“我也無法認同機器人選出的部分優勝者,但整體還算不錯。”

作為該算法的一個指標,AntiAgeist會評估一個人相對其真身年齡的年輕程度,將參賽者的真實年齡與系統預測的真實年齡以及此人看上去的年齡進行對比。在上圖中,Lu Sophia得分最高,因為真實年齡達到18歲的她,在機器人眼中只有13歲。

該算法中的PIMPL指標評估了膚色,RYNKL則著眼于皺紋。

MADIS則將參選者與數據庫中的演員和模特的面部進行了對比。其中一個組件將其與數據庫中的平均美貌進行對比,另外一個則將其與這些“美人”的特點進行對比。

最后,Symmetry Master則考察了面部的對稱性。

以下為此次選美比賽其他年齡組和性別的獲勝者:

 

這就是機器人選出的全世界“最好看的人”

 

 

這就是機器人選出的全世界“最好看的人”

 

 

這就是機器人選出的全世界“最好看的人”

 

 這就是機器人選出的全世界“最好看的人”

 

 算法的“偏見”

另外一個令這套系統的創造者感到心灰意冷的是,他們發現勝出者都有一個明顯的特點:機器人不喜歡深色皮膚的人。

44位勝出者幾乎都是白人,只有少數幾位亞洲人,黑人則只有1位。盡管多數參賽者都是白人,但很多有色人種也都提交了照片,包括大量的印度人和非洲人。

隨之而來的爭議引發了激烈的討論:算法為什么會存在偏見,并在無意間產生冒犯性的結果?

當微軟今年3月推出了“千禧一代”聊天機器人Tay時,它很快學會了種族主義言論,并在Twitter上傳播新納粹觀點。在Facebook上月去掉了負責篩選“趨勢”新聞的人類編輯后,計算機算法很快就把假新聞和粗俗消息推送到News Feed中,包括一篇有關男子用雞肉三明治自慰的文章。

雖然這次看似帶有種族主義意味的選美比賽引發了各界嘲笑,但計算機科學家和社會公正倡議者卻表示,在其他行業和領域,如果帶有偏見的人工智能系統得到大范圍應用,那絕對不是一件好笑的事情。在某些情況下,甚至會給有色人種帶來災難性的后果。

Beauty.AI由微軟支持的深度學習組織Youth Laboratories開發,它依靠龐大的照片數據庫來建立一種算法,借此評估人們的美貌。雖然有很多原因可以解釋算法為何偏向白人,但Beauty.AI首席科學官亞歷克斯•扎沃倫科夫(Alex Zhavoronkov)的主要問題在于,該項目在建立美貌評價標準時使用的數據,并沒有涵蓋足夠的少數族裔人群。

雖然該組織開發算法時并沒有將淺色皮膚作為美貌的標準,但系統獲得的數據實際上卻導致機器人裁判得出了這樣的結論。

“如果數據庫中的有色人種不夠多,就會得出偏見。”扎沃倫科夫說,他也對結果頗感驚訝。“當你訓練計算機算法識別某種形態時……你手上的數據可能不夠充分,這些數據也有可能存在偏見。”

對于帶有偏見的算法,最簡單的解釋就是:負責創造這些算法的人本身就帶有根深蒂固的偏見。換句話說,盡管人們認為算法是公正、客觀的,但這些算法卻往往會延續和放大現有的偏見。

此事給我們提了一個醒:“真正負責思考的是人類。盡管這種思考以算法形式體現出來,而我們也認為這種算法是中立而科學的,但本質并沒有改變。”他說。

公民自由組織最近對基于計算機的執法預測工具表達了擔憂——這類系統會使用數據預測犯罪可能發生在哪些地方——因為這些數據可能采用了有瑕疵的統計數據,因而可能加劇種族偏見,并引發有害的警務措施。

“數據受到污染,結果也會受到污染。”媒體爭議中心(Center for Media Justice)執行總監馬爾基亞•賽麗爾(Malkia Cyril)說。

ProPublica今年早些時候進行的一項調查發現,用于預測未來犯罪活動的軟件對黑人存在偏見,這有可能引發更嚴厲的量刑。

“這真的是人命關天的大事。”哈弗福德學院計算機科學教授索瑞勒•弗雷德勒(Sorelle Friedler)說。

弗雷德勒表示,關鍵問題在于,少數族裔在數據庫中的占比本身就比較低,因此算法很容易針對這些人得出不準確的結論,而算法的創作者卻無法發現這一問題。例如,她表示,一套對印第安人存有偏見的算法可能被視作一大成功,因為這些人在人口總數中僅占2%。

“你可能得到98%的準確率,并由此認為自己設計了一套優秀的算法。”

弗雷德勒表示,可以通過一些具有前瞻性的方法對算法進行調整,以便糾正偏見,包括改進輸入系統的數據,或者增加一些過濾器,以便確保不同種族的人都能得到平等對待。

具有前瞻性的人工智能算法并不限于刑事司法系統。一項研究發現,在網上看到高薪招聘廣告的女性遠少于男性。谷歌(微博)的照片應用去年甚至將黑人識別為大猩猩。

賽麗爾指出,計算機算法在糾正社會不平等的過程中發揮的作用非常有限。“在本應著眼于制度變化的時候,我們卻過于依賴技術、算法和機器學習。”

扎沃倫科夫表示,當Beauty.AI今年秋天舉行新一輪選美比賽時,他希望通過對算法的一系列調整來規避歧視性結果。“我們將努力糾正這個問題。”

他補充道,機器人或許根本就不是最好的選美裁判:“更令我驚訝的是算法在選美過程中使用的標準。它從大量候選人中選出的優勝者可能并不符合我自己的審美。”

 
 
 
[ 行業資訊搜索 ]  [ 加入收藏 ]  [ 告訴好友 ]  [ 打印本文 ]  [ 關閉窗口 ]
 
 
展會更多+
視頻更多+
點擊排行
 
網站首頁 | 網站地圖 | 排名推廣 | 廣告服務 | 積分換禮 | 網站留言 | RSS訂閱
主站蜘蛛池模板: 国产一二区视频 | 1024日韩基地 | 欧美va在线播放免费观看 | 麻豆网页| 欧美日韩亚洲国内综合网香蕉 | 亚洲精品视频网 | 亚洲午夜久久久久影院 | 日韩欧美色图 | 免费一级片在线观看 | 拿捏小说 | 边打电话边操 | 久久久精品国产免费A片胖妇女 | 亚洲免费视频在线 | 秒播影视 午夜福利毛片 | 99青青青精品视频在线 | 精油按摩日本 | 成人免费视频一区二区三区 | 黑人艹逼| 国产caonila在线观看 | 国产一级在线观看视频 | 国产日本久久久久久久久婷婷 | 青青色综合 | 国产成人免费观看在线视频 | japanesepooping脱粪 | 天堂中文在线免费观看 | 大陆日韩欧美 | 国产精品酒店视频免费看 | 国产综合社区 | 1024在线视频精品免费 | poronovideos极度残酷 | 全肉np巨肉一女np高h双龙 | 超时空要爱国语完整版在线 | 日韩中文字幕一区 | 久久久无码精品亚洲欧美 | 天天狠天天透天干天天怕处 | 污污在线免费观看 | 激性欧美激情在线aa | 午夜在线观看免费观看 视频 | 亚洲成aⅴ人片在线 | 免费看日产一区二区三区 | 欧洲肥女大肥臀 |