自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

黑人被標(biāo)記為靈長類動物,F(xiàn)acebook致歉,推薦功能已禁用

新聞
近日,有 Facebook 用戶在觀看一段以黑人為主角的視頻時收到推薦提示:詢問他們是否愿意「繼續(xù)觀看有關(guān)靈長類動物的視頻」。

 [[422289]]

近日,有 Facebook 用戶在觀看一段以黑人為主角的視頻時收到推薦提示:詢問他們是否愿意「繼續(xù)觀看有關(guān)靈長類動物的視頻」。該視頻是由《每日郵報》在 2020 年 6 月 27 日發(fā)布的,其中包含黑人與白人平民和警察發(fā)生爭執(zhí)的片段,并且視頻內(nèi)容與靈長類動物無關(guān)。目前,F(xiàn)acebook 已禁用該人工智能推薦功能。

據(jù)《紐約時報》報道,F(xiàn)acebook 已在上周五為其「不可接受的錯誤」道歉,并表示正在調(diào)查其推薦功能,防止這種情況再次發(fā)生。

針對此事,前 Facebook 內(nèi)容設(shè)計經(jīng)理 Darci Groves 在推特上發(fā)出該推薦提示截圖,并表示這令人無法接受。Groves 還將其發(fā)布到一個面向 Facebook 現(xiàn)任和前任員工的產(chǎn)品反饋論壇。作為回應(yīng),F(xiàn)acebook 視頻平臺 Facebook Watch 的產(chǎn)品經(jīng)理稱其「不可接受」,并表示該公司正在「調(diào)查根本原因」。

黑人被標(biāo)記為靈長類動物,F(xiàn)acebook致歉,推薦功能已禁用

Facebook 擁有世界上最大的用戶上傳圖像存儲庫之一,用于訓(xùn)練其面部和對象識別算法。Facebook 發(fā)言人 Dani Lever 在一份聲明中表示:「盡管我們對人工智能進行了改進,但我們知道它并不完美,我們還有很多改進要做。我們向任何可能看到這些冒犯性推薦信息的人道歉?!?/p>

毫無疑問,此次推薦信息的錯誤折射出的是 AI 系統(tǒng)存在的偏見。

偏見問題,不是個例

多年來,谷歌、亞馬遜等多家科技公司都曾因其人工智能系統(tǒng)中存在的偏見,尤其是種族問題而受到審查。有研究表明面部識別技術(shù)因存在種族偏見導(dǎo)致識別困難,甚至曾有報道稱黑人因 AI 存在的問題而受到歧視或被捕。

2015 年,Google Photos 將兩位黑人的照片標(biāo)記為「大猩猩(Gorillas)」,谷歌當(dāng)即深表歉意,并表示將立即解決問題。然而兩年后,《Wired》雜志發(fā)現(xiàn)谷歌的解決方案僅僅是防止將任何圖片標(biāo)記為大猩猩、黑猩猩或猴子。隨后谷歌證實,無法識別大猩猩和猴子是因為 2015 年將黑人識別為大猩猩事件發(fā)生后,為了解決這一錯誤,谷歌直接從搜索結(jié)果中刪除了這一詞條的標(biāo)簽。

黑人被標(biāo)記為靈長類動物,F(xiàn)acebook致歉,推薦功能已禁用

圖源:https://www.reddit.com/r/MachineLearning/comments/3brpre/with_results_this_good_its_no_wonder_why_google/

被證實「只是刪除標(biāo)簽」后谷歌表示:「圖像標(biāo)簽技術(shù)的發(fā)展仍處于早期階段,不幸的是這項技術(shù)離完美還差得很遠?!?/p>

在 OpenAI 一篇名為《Learning Transferable Visual Models From Natural Language Supervision》的研究論文中 ,研究者發(fā)現(xiàn)一些 AI 系統(tǒng)會將 4.9%(置信區(qū)間為 4.6%-5.4% )的圖像錯誤地分類為非人類類別之一,包括「動物」、「黑猩猩」等 . 其中,「黑人」圖像的誤分類率最高,約為 14%,而所有其他種族的誤分類率均低于 8%。

黑人被標(biāo)記為靈長類動物,F(xiàn)acebook致歉,推薦功能已禁用

論文地址:https://cdn.openai.com/papers/Learning_Transferable_Visual_Models_From_Natural_Language.pdf

實際上,AI 領(lǐng)域的偏見問題并不是個例。2020 年年底谷歌開除「倫理 AI 團隊」技術(shù)聯(lián)合負責(zé)人 Timnit Gebru 的事件引發(fā)了一場討論風(fēng)暴。就在昨日,Darci Groves 還在推特上發(fā)聲支持 Timnit Gebru 及其研究工作。

黑人被標(biāo)記為靈長類動物,F(xiàn)acebook致歉,推薦功能已禁用

偏見事件的陸續(xù)發(fā)生讓人們開始思考問題的根源,越來越多的研究者為了解決 AI 系統(tǒng)的偏見問題做出了努力。例如,MIT 的研究者曾經(jīng)開發(fā)一種可調(diào)的算法來減少訓(xùn)練數(shù)據(jù)中隱藏的潛在偏見,并用該算法來解決面部檢測系統(tǒng)中的種族和性別偏見問題。此外,機器學(xué)習(xí)作為一種數(shù)據(jù)驅(qū)動系統(tǒng),數(shù)據(jù)及其標(biāo)注的質(zhì)量和公平性可能還有很長的路要走。

 

責(zé)任編輯:張燕妮 來源: 機器之心Pro
相關(guān)推薦

2021-09-08 10:01:14

Facebook算法人工智能

2021-02-28 22:12:11

WPF標(biāo)記Handled

2023-05-06 12:28:08

2022-06-06 11:29:16

軟件包安裝開發(fā)包

2011-08-23 16:36:05

SQL Server 數(shù)據(jù)庫被標(biāo)記為可疑

2021-11-08 12:45:54

微軟代碼功能

2021-01-12 12:45:16

機器人人工智能AI

2014-03-23 17:51:10

2012-02-16 09:26:26

微軟Google

2023-08-09 11:59:29

微軟Windows

2013-03-24 16:07:35

2020-10-12 12:45:23

蘋果漏洞黑客

2023-02-20 13:59:32

2012-02-16 10:34:27

2025-02-04 08:27:13

2010-01-06 09:37:19

2009-02-13 13:42:42

MySpaceFacebook社交網(wǎng)絡(luò)

2021-10-20 09:24:47

Windows性能微軟

2010-09-07 14:27:04

Cookie

2018-02-09 15:21:59

Chrome瀏覽器HTTP
點贊
收藏

51CTO技術(shù)棧公眾號