Facebook停用人臉識(shí)別,真是規(guī)避風(fēng)險(xiǎn)?涉嫌種族歧視才致命
Mate公司,也就是改名后Facebook宣布,將停用人臉識(shí)別系統(tǒng),刪除超過10億人的個(gè)人面部識(shí)別數(shù)據(jù)。據(jù)悉,超過三分之一的 Facebook 用戶使用了人臉識(shí)別設(shè)置。
Facebook人工智能副總裁杰羅姆·佩森蒂表示:“人們對(duì)面部識(shí)別技術(shù)還存在許多擔(dān)憂,同時(shí)監(jiān)管機(jī)構(gòu)也在制定一套詳細(xì)的規(guī)則來約束人臉識(shí)別技術(shù)的使用,在這種持續(xù)的不確定性中,我們認(rèn)為將面部識(shí)別的使用,限制在一個(gè)狹小的范圍內(nèi)是最合適的。”
事實(shí)真的如此嗎?的確有這一部分的原因。
2020年,F(xiàn)acebook支付了6.5億美元,來解決用戶提起的集體訴訟。這些用戶稱,F(xiàn)acebook在未經(jīng)允許的情況下,創(chuàng)建和存儲(chǔ)了他們的面部數(shù)據(jù)。
2019年,舊金山成為第一個(gè)禁止政府使用人臉識(shí)別技術(shù)的城市,密西西比州、俄勒岡州、波士頓等州,也頒布了相關(guān)的禁令。
基于以上兩種原因,F(xiàn)acebook不得不停用人臉識(shí)別技術(shù)。那么,還有沒有其他原因呢?
違反政策法律、面臨集體訴訟只會(huì)讓公司增加許多費(fèi)用,但在國外,如果一家公司或者一項(xiàng)技術(shù)涉嫌種族歧視,是十分致命的。
在中國,人臉識(shí)別的準(zhǔn)確率高達(dá)98%以上,這是因?yàn)槲覀兪菃我蝗朔N,識(shí)別難度較低,而在西方國家,因?yàn)橛猩朔N的存在,人臉識(shí)別準(zhǔn)確率一般在90%左右。
90%的準(zhǔn)確率看似可以,但并不普遍,越來越多的研究表明,不同人群的錯(cuò)誤率有較大的差異,其中18-30歲的黑人女性準(zhǔn)確率最低。
美國國家標(biāo)準(zhǔn)與技術(shù)研究院曾經(jīng)做過一項(xiàng)研究,發(fā)現(xiàn)189種人臉識(shí)別算法對(duì)有色人種女性的準(zhǔn)確率最低,而淺膚色男性的準(zhǔn)確率最高。
不僅僅是研究,實(shí)踐結(jié)果也表明,人臉識(shí)別技術(shù)的確存在這樣的問題。
2018年,ACLU對(duì)名為“Rekognition”的面部識(shí)別工具進(jìn)行測(cè)試,結(jié)果該軟件卻錯(cuò)誤地將28名國會(huì)議員,標(biāo)識(shí)為因某種原因被捕的犯罪嫌疑人。
不難發(fā)現(xiàn),其中有色人種占了相當(dāng)大的一部分,甚至白人男性也被錯(cuò)誤地識(shí)別了……
在5·25美國警察暴力執(zhí)法事件中,非裔美國公民喬治·佛洛伊德慘遭白人警察“跪殺”身亡,歧視性執(zhí)法才被重視。相比白人,黑人更有可能因?yàn)檩p微犯罪而被捕。
如果有色人種的人臉識(shí)別率過低,種族主義的警察很有可能利用這項(xiàng)技術(shù),逮捕更多的黑人。
在中國,人臉識(shí)別技術(shù)不太需要考慮人種的差異,而國外不同,早些年由于其標(biāo)準(zhǔn)訓(xùn)練數(shù)據(jù)庫主要是白人和男性,而且默認(rèn)的相機(jī)也通常沒有優(yōu)化以捕捉較深膚色的人種,從而導(dǎo)致美國黑人數(shù)據(jù)庫圖像質(zhì)量變低。
顯然,F(xiàn)acebook停用人臉識(shí)別,也有處于這方便的考量,要提升人臉識(shí)別技術(shù)的準(zhǔn)確率,需要更多的投入,與其同時(shí)還要面臨與日俱增的集體訴訟和政策風(fēng)險(xiǎn),費(fèi)力不討好。