自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

厲害了,人工智能可以識(shí)別人的情緒,我不信

人工智能 人臉識(shí)別
首先,想象一下你正在面試一份工作。你在認(rèn)真回答面試官的問題時(shí),一雙人工智能的“眼睛”掃描你的臉,給你打上神經(jīng)質(zhì)、同情或可信任的標(biāo)簽。聽起來很像科幻小說,但這些“眼睛”使用的地方不在少數(shù),還通常是在人們不知情或者未經(jīng)同意的情況下。

情感識(shí)別技術(shù)(Emotion Recognition Technology)實(shí)際上是一種新興的技術(shù),使用人工智能從面部表情中檢測(cè)情緒,也是數(shù)十億美元的產(chǎn)業(yè)。然而該技術(shù)背后的科學(xué)支撐頗有爭(zhēng)議,系統(tǒng)中存在“偏見”。

 

[[394027]]

 

從食品到游戲行業(yè)的各種公司使用ERT測(cè)試用戶對(duì)它們產(chǎn)品的反應(yīng)。當(dāng)然可用在其他場(chǎng)景,比如在職場(chǎng)、機(jī)場(chǎng)安防或邊防識(shí)別人員情緒,以便維持秩序,還可監(jiān)督學(xué)生做家庭作業(yè)等。想想也是不錯(cuò)的。

但是,人臉識(shí)別技術(shù)正在受到公眾的關(guān)注,因?yàn)樗婕暗诫[私及歧視問題。最近在奈飛上映的獲獎(jiǎng)電影《Coded Bias》記錄了一個(gè)發(fā)現(xiàn),許多人臉識(shí)別技術(shù)不能準(zhǔn)確檢測(cè)深色皮膚的人臉。管理ImageNet(一個(gè)用于視覺對(duì)象識(shí)別軟件研究的大型可視化數(shù)據(jù)庫(kù))的團(tuán)隊(duì)最近也不得不模糊了150萬張圖片,為了回應(yīng)隱私問題。

 

[[394028]]

 

曾披露,人臉識(shí)別技術(shù)中有“算法偏見”和歧視性數(shù)據(jù)庫(kù),導(dǎo)致包括微軟、亞馬遜和IBM在內(nèi)的大型科技公司停止銷售該類技術(shù)。該技術(shù)在英國(guó)警務(wù)中的應(yīng)用也面臨法律指控。在歐盟,由40多個(gè)民間社會(huì)組織組成的聯(lián)盟呼吁禁止使用人臉識(shí)別技術(shù)。

像其他形式的人臉識(shí)別一樣,ERT也出現(xiàn)了關(guān)于偏見、隱私和大規(guī)模監(jiān)管的問題。但ERT還出現(xiàn)了另一個(gè)問題,支撐它的情感科學(xué)是有爭(zhēng)議的。大多數(shù)ERT系統(tǒng)是基于“基本情緒”理論的,該理論認(rèn)為,情感是與生俱來的,世界各地的人都以同樣的方式表達(dá)情感。

 

厲害了,人工智能可以識(shí)別人的情緒,我不信

 

然而,該理論慢慢地有些站不住腳了。人類學(xué)研究表明文化和社會(huì)不同,人們情緒的表達(dá)方式不同。2019年心理科學(xué)協(xié)會(huì)(Association for Psychological Science)對(duì)“基本情緒”理論的證據(jù)進(jìn)行了審查,結(jié)論是人們所普遍認(rèn)為的一個(gè)人的情緒可以很容易地從他們的面部表情中推斷出來沒有科學(xué)依據(jù)。簡(jiǎn)而言之,ERT沒有堅(jiān)實(shí)可靠的科學(xué)理論基礎(chǔ)。

此外,ERT中含有種族歧視的代碼。正在進(jìn)行的研究中已經(jīng)顯示該系統(tǒng)認(rèn)為不管這個(gè)人的表情如何,黑人的臉比白人的臉更顯憤怒。

 

厲害了,人工智能可以識(shí)別人的情緒,我不信

 

人工智能研究員黛博拉·拉吉(Deborah Raji)在接受麻省理工科技評(píng)論(MIT Technology Review)采訪時(shí)說,“這項(xiàng)技術(shù)有兩種情況‘傷害’到人們,一種是系統(tǒng)不起作用,識(shí)別有色人種的錯(cuò)誤率高,使人們面臨很大的風(fēng)險(xiǎn);另一種情況是當(dāng)它發(fā)揮作用時(shí),即系統(tǒng)已經(jīng)很成熟了,便很容易作為某種工具騷擾人們的生活。”

所以即使人臉識(shí)別技術(shù)可以去除偏見,也很準(zhǔn)確,也未必公平公正。我們會(huì)看到很多不和諧,比如當(dāng)人臉識(shí)別技術(shù)用在有歧視的警局和司法系統(tǒng)時(shí),會(huì)發(fā)生什么;當(dāng)它們?cè)谝粋€(gè)不和諧的世界中有效運(yùn)行時(shí),它們也有可能是危險(xiǎn)的。

 

人臉識(shí)別技術(shù)所帶來的挑戰(zhàn)至今沒有明確的答案。要解決ERT的問題,就必須從抽象的理論轉(zhuǎn)向生活的實(shí)踐。我們需要集體審視系統(tǒng)中有爭(zhēng)議的情感科學(xué)理論,并分析潛在的種族歧視。我們還需要問自己,即使ERT可以準(zhǔn)確地讀取每個(gè)人的內(nèi)心感受,我們是否想要在生活中被如此親密的監(jiān)控?這些都是需要大家深思熟慮的,投入精力和行動(dòng)的問題。

 

責(zé)任編輯:華軒 來源: 今日頭條
相關(guān)推薦

2018-07-13 14:38:34

人工智能深度學(xué)習(xí)機(jī)器人

2021-04-19 22:55:45

人工智能人臉識(shí)別技術(shù)

2018-04-11 14:30:33

2018-05-14 22:58:14

戴爾

2017-02-23 08:00:04

智能語音Click

2022-02-13 00:16:20

人工智能生物識(shí)別技術(shù)

2024-04-24 16:32:35

人工智能智能鎖

2022-12-01 07:03:22

語音識(shí)別人工智能技術(shù)

2021-09-17 12:18:53

NginxJavaScript前端

2018-04-12 14:09:53

圖像文字識(shí)別

2017-02-20 10:17:53

華為

2024-12-09 10:51:43

2022-12-13 07:19:00

聲紋識(shí)別人工智能障礙

2019-08-14 09:32:14

人工智能機(jī)器學(xué)習(xí)編程

2018-09-20 15:49:58

人工智能

2019-03-04 21:46:59

人工智能面部識(shí)別AI

2019-10-09 11:36:11

人工智能機(jī)器人技術(shù)

2022-06-20 11:05:58

通用人工智能機(jī)器人

2022-01-24 14:21:27

人工智能識(shí)別圖像繪畫

2020-11-10 10:46:12

人工智能機(jī)器學(xué)習(xí)機(jī)器人
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)