人工智能(AI)可信嗎?
?人工智能比智能更人工
2022年6月,微軟發(fā)布了微軟責(zé)任人工智能標(biāo)準(zhǔn)v2,其發(fā)布目的是“定義負(fù)責(zé)任人工智能的產(chǎn)品開(kāi)發(fā)需求”。也許令人感到驚訝,該文件只提到了人工智能中的一種偏差,即微軟的算法開(kāi)發(fā)人員需要意識(shí)到,過(guò)度依賴人工智能的用戶可能會(huì)提出的問(wèn)題(亦稱為“自動(dòng)化歧視”)。
簡(jiǎn)而言之,微軟似乎更關(guān)心用戶針對(duì)其產(chǎn)品的看法,而不是產(chǎn)品實(shí)際上對(duì)用戶產(chǎn)生的不利影響。這是良好的商業(yè)責(zé)任(不要對(duì)我們的產(chǎn)品說(shuō)任何負(fù)面的話),但社會(huì)責(zé)任較差(有許多例子表明算法歧視對(duì)個(gè)人或個(gè)人群體產(chǎn)生負(fù)面影響)。
商業(yè)人工智能有三個(gè)尚未解決的主要問(wèn)題:
- 隱藏的偏差造成虛假結(jié)果;
- 被用戶或攻擊者濫用的可能性;
- 算法返回太多的誤報(bào),以至于抵消了自動(dòng)化的價(jià)值。
學(xué)術(shù)界的擔(dān)憂
當(dāng)人工智能首次被引入網(wǎng)絡(luò)安全產(chǎn)品時(shí),它被描述為防護(hù)銀彈。毫無(wú)疑問(wèn),AI肯定有它的價(jià)值,但隨著一些出錯(cuò)的算法、隱藏的歧視,以及罪犯對(duì)AI的濫用,甚至是執(zhí)法和情報(bào)機(jī)關(guān)對(duì)隱私窺探,反對(duì)AI的聲音越來(lái)越強(qiáng)烈。
根據(jù)在2022年6月6日《科學(xué)美國(guó)人》的說(shuō)法,問(wèn)題在于一門(mén)仍在發(fā)展的科學(xué)的商業(yè)化:
人工智能領(lǐng)域最大的研究團(tuán)隊(duì)不在學(xué)術(shù)界,而是出現(xiàn)在企業(yè)中。在學(xué)術(shù)界,同行評(píng)議是王道。與大學(xué)不同,企業(yè)沒(méi)有公平競(jìng)爭(zhēng)的動(dòng)機(jī)。他們不是將新的學(xué)術(shù)論文提交學(xué)術(shù)審查,而是通過(guò)新聞稿吸引記者,并跨過(guò)同行評(píng)議流程。我們只知道企業(yè)想讓我們知道的。
--紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授加里·馬庫(kù)斯
結(jié)果就是,我們只聽(tīng)到了人工智能的積極方面,但沒(méi)有聽(tīng)到人工智能的消極方面。
喬治敦法學(xué)院隱私與技術(shù)中心執(zhí)行主任艾米莉·塔克也得出了類似的結(jié)論:“從今天開(kāi)始,我們中心將停止在工作中使用術(shù)語(yǔ)‘人工智能’、‘AI’和‘機(jī)器學(xué)習(xí)’,以暴光并減輕數(shù)字技術(shù)在個(gè)人和社區(qū)生活中的危害……作為獲得資本的一種戰(zhàn)略手段,科技公司如此成功地扭曲圖靈測(cè)試的原因之一,在于政府渴望獲得科技所賦予的無(wú)處不在的監(jiān)督權(quán)。這種監(jiān)督權(quán)行使起來(lái)方便、成本也相對(duì)便宜,并且可以通過(guò)規(guī)避民主決策或監(jiān)督的采購(gòu)流程獲得?!?/p>
簡(jiǎn)而言之,對(duì)利潤(rùn)的追求阻礙了人工智能的科學(xué)發(fā)展。面對(duì)這些擔(dān)憂,我們需要問(wèn)問(wèn)自己,是否可以相信產(chǎn)品中的人工智能輸出的是準(zhǔn)確的信息和沒(méi)有偏差的判斷,而不是被人們、罪犯,甚至是政府所濫用。
人工智能的失敗
案例1:一輛特斯拉自動(dòng)駕駛汽車(chē)直接駛向一名手持停車(chē)標(biāo)志的工人,只有在司機(jī)進(jìn)行干預(yù)時(shí)才會(huì)減速。原因在于,人工智能被訓(xùn)練識(shí)別人類和識(shí)別停車(chē)標(biāo)志,但沒(méi)有被訓(xùn)練識(shí)別攜帶停車(chē)標(biāo)志的人類。
案例2:2018年3月18日,一輛優(yōu)步自動(dòng)駕駛汽車(chē)撞死了一名推著自行車(chē)的行人。根據(jù)NBC當(dāng)時(shí)的說(shuō)法,人工智能無(wú)法“將物體歸類為行人,除非該物體靠近人行橫道”。
案例3:2020年英國(guó)新冠肺炎封閉期間,學(xué)生們的考試成績(jī)由人工智能算法來(lái)評(píng)判。大約40%的學(xué)生成績(jī)比預(yù)期的要低得多。這是因?yàn)?,算法過(guò)分重視各學(xué)校的歷史成績(jī)。因此,相比其他學(xué)校,私立學(xué)校和以前成績(jī)優(yōu)異的公立學(xué)校的學(xué)生獲得了很大的評(píng)分優(yōu)勢(shì)。
案例4:Tay是微軟于2016年在Twitter上推出的一款人工智能聊天機(jī)器人,通過(guò)模仿真實(shí)人類的語(yǔ)言,Tay的目標(biāo)是成為一個(gè)可以理解俚語(yǔ)的智能交互系統(tǒng)。但在短短的16個(gè)小時(shí)的真人互動(dòng)之后,Tay就被迫下線。它在推特上寫(xiě)道“希特勒憎恨猶太人是正確的”。
案例5:選擇候選人。亞馬遜希望AI幫助其自動(dòng)選擇填補(bǔ)職位空缺的候選人,但該算法的結(jié)果是性別歧視和種族歧視,偏向白人、男性。
案例6:錯(cuò)誤的身份。新冠疫情封閉期間,一支蘇格蘭足球隊(duì)在線直播了一場(chǎng)比賽,使用的是基于人工智能的攝像頭跟蹤足球。但這個(gè)AI拍攝系統(tǒng)不斷地把邊裁的光頭當(dāng)做足球,拍攝焦點(diǎn)總是集中在這位邊裁身上,而不是比賽。
案例7:申請(qǐng)拒絕。2016年一位母親申請(qǐng)昏迷半年后醒來(lái)的兒子搬進(jìn)她所居住的公寓,卻遭到住房中心的拒絕。兒子被送到康復(fù)中心一年之后,才通過(guò)律師弄清原因。住房中心使用的人工智能認(rèn)為兒子有盜竊記錄,所以將其列入住房黑名單。但實(shí)際上兒子一直臥病在床,根本無(wú)法實(shí)施犯罪。
類似的例子還有很多,究其原因無(wú)非兩種,一是由意外偏差引起的設(shè)計(jì)失敗,二是學(xué)習(xí)失敗。自動(dòng)駕駛汽車(chē)的案例是學(xué)習(xí)失敗。雖然隨著學(xué)習(xí)次數(shù)的增加可以校正錯(cuò)誤,但在校正之前,一旦投入使用可能要付出沉重的代價(jià)。但如果想完全避免風(fēng)險(xiǎn)的話,意味著永遠(yuǎn)也無(wú)法投入使用。
案例3和案例5則屬于設(shè)計(jì)失敗,意料之外的偏差扭曲了結(jié)果。問(wèn)題在于,開(kāi)發(fā)人員是否能夠在不知道自己存在偏見(jiàn)的情況下,去除他們的偏見(jiàn)。
人工智能的誤用和濫用
誤用意味著人工智能的應(yīng)用效果并非開(kāi)發(fā)人員的本意。濫用則意味著故意去做,例如污染喂給人工智能的數(shù)據(jù)。一般而言,誤用通常由AI產(chǎn)品所有者的行為,而濫用往往涉及第三方(如網(wǎng)絡(luò)罪犯)的行為,導(dǎo)致產(chǎn)品受到并非所有者本意的操縱。我們先來(lái)看看誤用的情況。
誤用
Vectra AI的研究負(fù)責(zé)人Kazerounian認(rèn)為,當(dāng)人類開(kāi)發(fā)的算法試圖對(duì)其他人進(jìn)行判斷時(shí),隱藏的偏差是不可避免的。比如在信用申請(qǐng)和租賃申請(qǐng)方面,美國(guó)有著悠久的紅線和種族主義歷史,這些歧視政策在基于人工智能的自動(dòng)化之前早已存在。
而且,當(dāng)偏見(jiàn)深入到人工智能算法中時(shí),比起人的偏見(jiàn),更難發(fā)現(xiàn)和理解?!澳阋苍S可以在深度學(xué)習(xí)模型中看到矩陣運(yùn)算得出的分類結(jié)果。但人們只能解釋運(yùn)算的機(jī)制,卻解釋不了原因。它只是解釋了機(jī)制。我認(rèn)為,站在更高的層面上,我們必須問(wèn)的是,有些事適合交給人工智能去做嗎?”
2022年5月11日,麻省理工學(xué)院與哈佛大學(xué)發(fā)表在《柳葉刀》上的一項(xiàng)研究,證實(shí)了人們無(wú)法理解深度學(xué)習(xí)是如何得出結(jié)論的。該研究發(fā)現(xiàn),人工智能僅依靠醫(yī)學(xué)圖像(如X射線和CT掃描),就能夠識(shí)別種族,但沒(méi)有人知道AI是如何做到這一點(diǎn)的。再往后想一下,在確定患者的人種、族裔、性別甚至是否被監(jiān)禁等方面,AI醫(yī)療系統(tǒng)的做法可能要遠(yuǎn)超我們的想象。
哈佛醫(yī)學(xué)院醫(yī)學(xué)副教授、作者之一安東尼·塞利評(píng)論道,“僅僅因?yàn)槟愕乃惴ㄖ杏胁煌后w的表征(數(shù)據(jù)的質(zhì)量和有效性),并不能保證它可以永遠(yuǎn)如此,也不能保證它會(huì)放大已有的差異和不平等。用表征學(xué)習(xí)為算法提供更多數(shù)據(jù)并非萬(wàn)靈藥。這篇論文應(yīng)該讓我們停下來(lái),真正重新考慮我們是否準(zhǔn)備好將人工智能應(yīng)用在臨床診斷?!?/p>
這個(gè)問(wèn)題也波及到了網(wǎng)絡(luò)安全領(lǐng)域。2022年4月22日,微軟在其產(chǎn)品路線圖中添加了一個(gè)名為“離職者分類器”的功能。該產(chǎn)品預(yù)計(jì)將于2022月9月上市。“離職者分類器可以早期檢測(cè)出意圖離開(kāi)組織的員工,以減少由于員工離職帶來(lái)的有意或無(wú)意的數(shù)據(jù)泄露風(fēng)險(xiǎn)?!?/p>
當(dāng)有媒體嘗試以人工智能與個(gè)人隱私為主題采訪微軟時(shí),卻得到了這樣的回答:“微軟目前沒(méi)有什么可以分享的,但如果有新消息我們會(huì)讓你及時(shí)了解?!?/p>
在倫理方面,必須考慮的是,用AI來(lái)做離職的意圖推測(cè),是否是對(duì)技術(shù)的正確使用。至少大多數(shù)人認(rèn)為,通過(guò)監(jiān)控通信來(lái)確定某人是否正在考慮離職,是一件正確或合適的事情,尤其是結(jié)果可能造成負(fù)面影響。
而且,算法中的意外偏差很難避免,甚至更難檢測(cè)。既然預(yù)測(cè)某人是否會(huì)離職,連人類都難以有效判斷個(gè)人動(dòng)機(jī),為什么人工智能系統(tǒng)就不會(huì)犯錯(cuò)呢?而且,人們?cè)诠ぷ髦械臏贤ㄓ兄鞣N說(shuō)話的方式,假設(shè)、玩笑、氣憤,或者談?wù)撍?。即便是去招聘網(wǎng)站更新簡(jiǎn)歷,也可能只是腦中的一個(gè)閃念。一旦被機(jī)器學(xué)習(xí)判定為高離職可能性的員工,那就很可能在經(jīng)濟(jì)衰退時(shí)首先要解雇的人員,并與加薪或升職無(wú)緣。
還有一個(gè)更為廣泛的可能性。如果企業(yè)可以擁有這種技術(shù),執(zhí)法機(jī)構(gòu)和情報(bào)機(jī)構(gòu)自然也會(huì)有。同樣的判斷錯(cuò)誤也可能發(fā)生,而且后果要比升職加薪嚴(yán)重的多。
濫用
Adversa.ai的創(chuàng)始人兼首席執(zhí)行官亞歷克斯·波利亞科夫,則更擔(dān)心通過(guò)操縱機(jī)器學(xué)習(xí)過(guò)程對(duì)AI的濫用?!巴ㄟ^(guò)科學(xué)家們進(jìn)行的研究,以及我們的人工智能紅隊(duì)(指扮演攻擊方的角色)的真實(shí)評(píng)估工作都可以證明,愚弄人工智能的決策,不管是計(jì)算機(jī)視覺(jué)還是自然語(yǔ)言處理或者是其他任何事情,修改一組非常小的輸入就足夠了。”
比如,“eats shoots and leaves”這幾個(gè)單詞,只需加上不同的標(biāo)點(diǎn)符號(hào),就可以表示素食者或是恐怖分子。對(duì)于人工智能來(lái)說(shuō),想要窮盡所有單詞在所有語(yǔ)境下的含義,幾乎是一個(gè)不可能的任務(wù)。
此外,波利亞科夫已經(jīng)先后兩次證明了愚弄人臉識(shí)別系統(tǒng)是多么容易。第一次讓人工智能系統(tǒng)相信面前各種人都是埃隆·馬斯克,第二次的例子是用一張人類看上去明顯是同一張圖像,卻被人工智能解讀為多個(gè)不同的人。其中的原理,即操縱人工智能學(xué)習(xí)過(guò)程的原理,幾乎可以被網(wǎng)絡(luò)罪犯應(yīng)用到任何人工智能工具。
歸根結(jié)底,人工智能只是人類教授的機(jī)器智能,我們離真正的人工智能還有很多年,即使我們不去討論真正的人工智能是否能實(shí)現(xiàn)。就目前而言,人工智能應(yīng)該被當(dāng)作一種將許多有規(guī)律的人類工作進(jìn)行自動(dòng)化處理的工具,畢竟它與人類一樣會(huì)有著類似的成功率和失敗率。當(dāng)然,它的速度要快得多,而且成本也要比昂貴的分析師團(tuán)隊(duì)低的多。
最后,不管是算法偏差還是AI被濫用,所有使用人工智能的用戶都應(yīng)該考慮這樣一個(gè)問(wèn)題:至少在目前階段,我們不能過(guò)度依賴人工智能的輸出結(jié)果。