研究人員開發(fā)小游戲展示AI情感識別有多不可靠
據(jù)外媒The Verge報道,科技公司不僅想要通過面部識別來識別用戶,它們還想借助AI來讀取用戶的情緒。然而這在許多科學(xué)家看來,計算機理解情感的能力從根本上來說是有缺陷的,對此,來自劍橋大學(xué)的研究人員開發(fā)出了一款小型瀏覽器網(wǎng)頁游戲來揭示其中的原因。
打開emojify.info,你可以通過網(wǎng)絡(luò)攝像頭看到電腦是如何“解讀”你的情緒的。游戲?qū)⑻魬?zhàn)你產(chǎn)生6種不同的情緒--快樂、悲傷、恐懼、驚訝、厭惡和憤怒,AI將嘗試識別這些情緒。然而,你可能會發(fā)現(xiàn)這款軟件的讀數(shù)遠不準(zhǔn)確,它經(jīng)常把夸張的表情解釋為“中性”。甚至當(dāng)你做出一個微笑的時候會讓你的電腦相信你是快樂的,但你知道,自己是假裝的。
這一游戲的開發(fā)者、劍橋大學(xué)未來情報Leverhulme中心與存在風(fēng)險研究中心研究員Alexa Hagerty告訴The Verge:“這些技術(shù)的前提是,我們的臉和內(nèi)心情感以一種非??深A(yù)測的方式相互關(guān)聯(lián)。如果我微笑代表我很開心,如果我皺眉代表我生氣。但美國心理學(xué)會在2019年對證據(jù)進行了一次大的回顧,他們發(fā)現(xiàn)不能輕易地從人們的面部運動推斷出他們的情緒空間。在游戲中,你有機會快速移動你的臉來模仿六種不同的情緒,但重點是你的內(nèi)心并沒有感受到連續(xù)不斷的六種不同的東西。”
盡管存在這些問題,但情緒識別技術(shù)正迅速獲得關(guān)注。一些公司承諾,這類系統(tǒng)可用于審查求職者、發(fā)現(xiàn)潛在的恐怖分子或評估商業(yè)司機是否昏昏欲睡。
當(dāng)然,人類在解讀他人面部表情時也會犯錯,但把這項工作交給機器則也有其特定的缺點:首先,機器無法像人類那樣解讀其他的社會線索;另外,機器還經(jīng)常做出人類無法質(zhì)疑的自動決策并且可以在人們無意識的情況下進行大規(guī)模監(jiān)控;此外,跟面部識別系統(tǒng)一樣,情緒檢測AI技術(shù)通常帶有種族偏見。所有這些因素都讓AI的情感檢測比人類讀懂他人情感的能力更加麻煩。
“危險是多重的,”Hagerty說道,“對于人類的誤解,我們有很多選擇來糾正。但一旦你自動化了一些東西,或在你不知情或不知情的情況下閱讀,這些選項就消失了。”