向偏見和不平等說不!微軟停止提供有爭議的面部識別服務(wù)
微軟公司表示會逐步停止對旗下一些由人工智能驅(qū)動的面部識別工具的訪問,包括一項基于視頻和圖像識別情緒的服務(wù)。
微軟在日前宣布這一決定的同時還公布了一份27頁的“負(fù)責(zé)任的人工智能標(biāo)準(zhǔn)”,標(biāo)準(zhǔn)解釋了微軟在公平的和值得信賴的人工智能方面的目標(biāo)。微軟為了達(dá)到這些標(biāo)準(zhǔn)而限制了一些面部識別工具的訪問,包括旗下的AzureFace API、計算機(jī)視覺和視頻索引器服務(wù)提供的面部識別工具。
微軟表示,新用戶將不會有機(jī)會使用這些功能,而現(xiàn)有客戶則必須在今年年底前停止使用這些功能。
面部識別技術(shù)已經(jīng)成了民權(quán)和隱私團(tuán)體的一個主要關(guān)注點。此前的研究表明,面部識別技術(shù)遠(yuǎn)非完美,經(jīng)常大比例地誤判女性對象及皮膚較黑的人。這在人工智能用于識別犯罪嫌疑人和其他監(jiān)控情況時可能會導(dǎo)致很大的潛在問題。
而檢測情緒的人工智能工具的使用則更是具爭議性。今年早些時候,Zoom Video Communications Inc曾宣布考慮增加“情感人工智能”功能,隱私組織Fight for the Future其時曾發(fā)起一項運動敦促Zoom不要這樣做,因為擔(dān)心該技術(shù)可能被濫用。
圍繞面部識別的爭議得到各科技公司的重視,亞馬遜網(wǎng)絡(luò)服務(wù)公司和Facebook的母公司Meta Platforms Inc.都在縮減對此類工具的使用。
微軟首席人工智能負(fù)責(zé)人Natasha Crampton在一篇博文中表示,微軟認(rèn)識到要使人工智能系統(tǒng)值得信賴,人工智能系統(tǒng)必須是其所要解決的問題的適當(dāng)解決方案。Crampton表示,面部識別則被認(rèn)為是不合適的解決方案,微軟將擱置推斷“情緒狀態(tài)和身份屬性,如性別、年齡、微笑、面部毛發(fā)、頭發(fā)和化妝”的Azure服務(wù)。
她還表示,“人工智能系統(tǒng)有可能加劇社會偏見和不平等,可以說是有關(guān)這些系統(tǒng)的最廣泛認(rèn)可的危害之一。我們的法律還沒有跟上人工智能的獨特風(fēng)險或社會需求。我們看到有跡象表明政府在人工智能方面的行動正在擴(kuò)大,但我們也認(rèn)識到我們有責(zé)任采取行動?!?/p>
分析師們對于微軟的決定是否是一個好決定的看法存在分歧。Pund-IT公司的Charles King告訴記者,除了面部識別技術(shù)的爭議之外,人工智能歸類剖析工具的效果也往往不盡如人意,很少能達(dá)到其創(chuàng)造者所聲稱的效果。King表示,“同樣重要的是,尋求更好生活的難民及有色人種在這么多地方受到攻擊,歸類剖析工具被濫用的可能性非常大。因此,我相信微軟限制這一類工具使用的決定是非常合理的。”
而Enderle集團(tuán)的Rob Enderle則表示,看到微軟退避面部識別令人失望,這種工具已經(jīng)從早期的許多錯誤中取得了很大的進(jìn)展。他表示,圍繞面部識別的負(fù)面宣傳已經(jīng)迫使一些大公司遠(yuǎn)離該領(lǐng)域。
Enderle表示,“基于人工智能的面部識別技術(shù)對于抓捕罪犯、恐怖分子和間諜來說太有價值了,所以政府機(jī)構(gòu)也不會停止使用這種技術(shù)。然而,微軟的退避意味著他們最終將使用來自專業(yè)防務(wù)公司或外國供應(yīng)商的工具,這些工具的效果很可能不會太好,而且也缺乏相同種類的控制。妖怪已經(jīng)放出來了,再扼殺面部識別技術(shù)只會令整個社會不能從中獲益。”
微軟表示,旗下負(fù)責(zé)任的人工智能標(biāo)準(zhǔn)并不局限于面部識別。微軟還會將這些標(biāo)準(zhǔn)應(yīng)用于Azure人工智能定制神經(jīng)語音,Azure人工智能定制神經(jīng)語音是一種語音到文本的服務(wù),可用于支持轉(zhuǎn)錄工具。微軟的解釋是,2020年3月的一項研究發(fā)現(xiàn),非裔美國人和黑人社區(qū)使用該軟件時錯誤率較高,鑒于此,微軟已經(jīng)采取措施改進(jìn)該軟件。