危險信號:谷歌AI把戴口罩的女性識別為被膠帶封嘴的女人
根據(jù)FuninUSA報道,微軟、谷歌和IBM的視覺系統(tǒng)要跟上現(xiàn)實世界需要做很多工作。這項研究的一些結(jié)果確實令人不安。
戴口罩的女人
市場營銷公司W(wǎng)underman Thompson的數(shù)據(jù)集團進行了這項研究,研究了著名的視覺AI對戴PPE口罩的男性和女性的觀察方式是否相同。
研究人員為每種性別拍攝了256張不同質(zhì)量、在不同地點的圖像,然后使用一些大型科技公司訓練的通用模型:谷歌云視覺(Cloud Vision)、微軟Azure認知服務(wù)計算機視覺(Cognitive Services Computer Vision)和IBM的沃森視覺(Watson Visua)來識別。
結(jié)果卻讓人有點不寒而栗。
雖然沒有一個系統(tǒng)在識別口罩方面特別出色,但它們識別男性口罩佩戴者的幾率是女性口罩佩戴者的兩倍。這種根據(jù)性別分類而產(chǎn)生的顯著的識別差異令人奇怪。
那么他們認為這些女人戴的是什么呢?谷歌AI認為28%的女性圖片中的嘴部是被膠帶封住。在8%的例子中,AI認為這些人是面部有毛發(fā)的女性,看起來臉上有很多毛發(fā)。
IBM的沃森(Watson)則更進一步。在23%的案例中,被識別為女性戴著封口膠。在另外23%的案例中,確定這是一位戴著鐐銬或鎖鏈的女性。
微軟的Azur計算機視覺可能也需要更精確的編碼。調(diào)查顯示,它們認為40%是女性佩戴的時尚配飾,14%是女性涂著口紅。
這樣的結(jié)果可能會讓很多人想知道這些人工智能的想法是從哪里來的。一個簡單的答案可能是“男人”。
然而,研究人員認為,這些機器是在網(wǎng)絡(luò)上“一個黑暗的角落”里尋找靈感,在那里,女性是暴力或沉默的受害者。”
很難想象這是真的,而且隨著我們越來越容易地迷失在人工智能叢中,這可能會帶來可怕的后果。
研究人員表示,他們并不是要妖魔化人工智能。(人工智能很擅長為自己做這件事。)
相反, 正如Wunderman Thompson的數(shù)據(jù)科學主管伊林卡·巴桑(Ilinca Barsan)所指出:“如果我們想要我們的機器做準確的和負責任的反映社會的工作, 我們需要幫助它們了解我們生活的社會動態(tài),阻止它們通過自動化來強化現(xiàn)有的不平等,并讓它們?yōu)?lsquo;好’而工作。”
不過,當我問研究人員對IBM退出面部識別業(yè)務(wù)的想法時,他們回答說:"我們的研究側(cè)重于視覺標簽識別,而不是面部識別,但如果人工智能模型(公認是一般的)很容易混淆戴口罩的人和被堵住或被限制的人,那么對于IBM來說,退出一個如此容易被濫用、侵犯隱私和訓練偏見的業(yè)務(wù)似乎是正確的(也是明智的)做法。”
在幫助機器理解關(guān)鍵元素方面,人類還沒有做得很好。比如人類本身。部分原因是機器沒有這種本能,部分原因是人類很難理解自己。
毫無疑問,人工智能在實驗中也許發(fā)現(xiàn)了人類世界的深層潛意識,即女人在人類社會中的角色籠罩在某種黑暗奴役意識之中,當然這種潛意識普通人在瀏覽網(wǎng)頁過程中無法察覺,但是當人工智能遍歷網(wǎng)絡(luò)世界中卻能感受到大多數(shù)網(wǎng)絡(luò)的深層潛藏的意識并加以提煉學習,目前還不清楚實驗進行到了哪一個階段,但我們必須要清楚在人工智能認知領(lǐng)域的研發(fā),美國企業(yè)是領(lǐng)先世界的。
目前出現(xiàn)的這種風險在人工智能領(lǐng)悟后又將傳播多少黑暗呢?