聯(lián)合國呼吁在建立保障措施之前禁掉某些人工智能技術(shù)
據(jù)外媒報道,當?shù)貢r間周三,聯(lián)合國人權(quán)事務高級專員呼吁暫停出售和使用構(gòu)成人權(quán)風險的人工智能技術(shù)--包括國家使用面部識別軟件--直到適當?shù)谋U洗胧┑轿?。盡管從隱私到種族偏見等諸多擔憂困擾著這一新興技術(shù),但這一請求發(fā)出之際正值人工智能快速發(fā)展期間。
“人工智能可以是一股有益的力量,幫助社會克服我們這個時代的一些重大挑戰(zhàn)。但如果不充分考慮人工智能技術(shù)對人權(quán)的影響就會產(chǎn)生負面甚至災難性的影響,”聯(lián)合國人權(quán)高級專員Michelle Bachelet于周三在一份聲明中說道。
在Bachelet發(fā)出警告的同時,聯(lián)合國人權(quán)辦公室還發(fā)布了一份報告。該報告分析了人工智能系統(tǒng)如何影響人們的隱私權(quán)以及健康、教育、行動自由等權(quán)利。
Bachelet補充道:“人工智能現(xiàn)在已經(jīng)滲透到我們身體、精神生活甚至情感狀態(tài)的幾乎每個角落。人工智能系統(tǒng)被用來決定誰能得到公共服務,決定誰有機會被錄用,當然,它們影響人們看到什么信息,可以在網(wǎng)上分享什么信息。”
該報告警告了在沒有盡職調(diào)查的情況下實施這項技術(shù)的危險,另外還列舉了一些案例如人們因為有缺陷的面部識別技術(shù)而被錯誤逮捕或因為這些工具的錯誤而被拒絕享受社會保險福利。
盡管該報告沒有提到具體的軟件,但它呼吁各國禁止任何不能按照國際人權(quán)法操作的人工智能應用。更具體地說,該報告呼吁暫停在公共場所使用遠程生物識別技術(shù)--至少在當局能夠證明符合隱私和數(shù)據(jù)保護標準、沒有歧視性或準確性問題之前。
該報告還抨擊了許多人工智能系統(tǒng)的實施缺乏透明度以及它們對大數(shù)據(jù)集的依賴可能導致人們的數(shù)據(jù)以不透明的方式被收集和分析并導致錯誤或歧視性的決定。報告稱,數(shù)據(jù)的長期存儲及未來如何使用也不得而知,這同樣也是一個令人擔憂的原因。
Bachelet說道:“鑒于人工智能的快速和持續(xù)增長,填補數(shù)據(jù)收集、存儲、共享和使用方面的巨大問責缺口是我們面臨的最緊迫的人權(quán)問題之一......我們不能在人工智能方面繼續(xù)追趕--允許其在有限或沒有邊界或監(jiān)督的情況下使用,并在事后處理幾乎不可避免的人權(quán)后果。”另外他還呼吁立即采取行動,“為人工智能的使用設置人權(quán)護欄”。
數(shù)字權(quán)利倡導組織歡迎該國際機構(gòu)的建議,尤其是在許多國家在執(zhí)行有關(guān)人工智能的聯(lián)邦法律方面滯后的情況下。
非營利倡導組織Fight for the Future的負責人Evan Greer告訴ABC News,該報告進一步證明了這種新興技術(shù)構(gòu)成的生存威脅。
Greer在接受ABC News采訪時表示:“這份報告反映了世界各地的技術(shù)和人權(quán)專家日益增長的共識:像面部識別這樣的人工智能監(jiān)控系統(tǒng)對人類自由的未來構(gòu)成了生存威脅。像核武器或生物武器一樣,這類技術(shù)具有巨大的潛在危害,無法得到有效監(jiān)管,必須予以禁止。”
Greer還補充稱:“無論是政府還是企業(yè)等私人實體,面部識別和人工智能的其他歧視性用途都可能造成巨大傷害。我們同意聯(lián)合國報告的結(jié)論:應該立即在全球范圍內(nèi)暫停銷售面部識別監(jiān)控技術(shù)和其他有害的人工智能系統(tǒng)。”
多項研究表明,由人工智能驅(qū)動的面部識別技術(shù)可能存在種族偏見和假陰性。就在去年夏天,密歇根州的一名黑人男子被錯誤地逮捕和拘留,就因為面部識別技術(shù)錯誤地將他識別為入店行竊嫌疑人。
美國商務部國家標準與技術(shù)研究所于2019年的一項全面研究發(fā)現(xiàn),市場上大多數(shù)面部識別軟件對亞裔和黑人面孔的假陽性匹配率高于白人面孔。英國2019年的另一項研究發(fā)現(xiàn),被倫敦警察廳使用的面部識別技術(shù)標記的嫌疑人中,81%是無辜的。






