人工智能正在被用來識(shí)別情緒
情感識(shí)別技術(shù)是一個(gè)新興的價(jià)值數(shù)十億美元的產(chǎn)業(yè),它利用人工智能技術(shù)從人的面部表情去檢測(cè)情感。但是,情感識(shí)別系統(tǒng)在科學(xué)界存在爭議,即系統(tǒng)中存在偏見。
許多公司正在使用情感識(shí)別技術(shù)去測(cè)試顧客對(duì)他們產(chǎn)品的反應(yīng),這些產(chǎn)品從谷類食品到電子游戲。這項(xiàng)技術(shù)也被用在高風(fēng)險(xiǎn)的部門,例如機(jī)場(chǎng)的安全部門雇用人員,去檢測(cè)面試者的欺騙或恐懼;在邊境管制部門,這項(xiàng)技術(shù)被用來識(shí)別“危險(xiǎn)人物”。
人臉識(shí)別技術(shù)受到越來越多的公眾關(guān)注。最近,從Netflix發(fā)布的影片中,許多面部識(shí)別技術(shù)無法準(zhǔn)確檢測(cè)到膚色較深的人臉。因?yàn)殡[私問題,ImageNet模糊了150萬張人臉圖像。
由于人臉識(shí)別技術(shù)存在算法偏差和歧視性數(shù)據(jù)集,包括微軟、亞馬遜和IBM在內(nèi)的大型科技公司已經(jīng)停止了相關(guān)產(chǎn)品的銷售。在歐盟,一個(gè)由40多個(gè)民間組織組成的聯(lián)盟呼吁全面禁止面部識(shí)別技術(shù)。

像其它形式的面部識(shí)別技術(shù)一樣,情感識(shí)別技術(shù)引出了關(guān)于偏見、隱私和大規(guī)模監(jiān)視的問題。與情感識(shí)別技術(shù)相關(guān)的另一個(gè)問題,它背后的情感科學(xué)是有爭議的。人類學(xué)的研究表明,情感在不同的文化和社會(huì)中有不同的表達(dá)方式。2019年,心理科學(xué)協(xié)會(huì)對(duì)相關(guān)證據(jù)進(jìn)行了審查,結(jié)論是沒有科學(xué)證據(jù)支持一個(gè)普遍的假設(shè),即一個(gè)人的情緒狀態(tài)可以很容易地從面部動(dòng)作推斷出來。
與其他形式的面部識(shí)別技術(shù)一樣,情感識(shí)別技術(shù)帶有種族偏見。一項(xiàng)研究表明,無論黑人的表情如何,系統(tǒng)總是會(huì)認(rèn)為黑人的臉比白人的臉更憤怒。美國麻省理工學(xué)院的研究人員指出,這項(xiàng)技術(shù)對(duì)少數(shù)族裔有兩種傷害:第一種情況是不起作用,由于有色人種的錯(cuò)誤率較高,使他們面臨更大的風(fēng)險(xiǎn)。第二種情況是,如果你有完整的面部識(shí)別系統(tǒng),很容易用武器對(duì)付少數(shù)族裔。