人工智能會(huì)意識(shí)到自己犯錯(cuò)嗎?
圖源:Analytics India Magazine
1956年8月,10位科學(xué)家齊聚美國(guó)的達(dá)特茅斯學(xué)院,探討如何用機(jī)器去模擬感知、推理、決策等人類智能,這被認(rèn)為是人工智能的誕生標(biāo)志性事件。
六十年過(guò)去了,人工智能飛速發(fā)展,已深入我們的日常生活。
某些外賣平臺(tái)的智能算法不斷優(yōu)化,能從11萬(wàn)條路線中找出最優(yōu)的配送方案,將過(guò)去1小時(shí)的配送時(shí)間變成45分鐘,又壓縮成38分鐘,充分挖掘外賣小哥的潛力,才有了我們?cè)絹?lái)越快的外賣。
某些公司有了OA算法管理系統(tǒng)的加持,才能實(shí)時(shí)監(jiān)控員工的工作狀態(tài),員工的心率、呼吸、坐姿、疲勞度等數(shù)據(jù)實(shí)時(shí)上傳,連上廁所的時(shí)間都可以精確到秒,充分挖掘打工人的潛力,才有了公司的完美財(cái)報(bào)。
某些辦公APP,在員工眼中,操作方便,各種需要的功能齊全,卻為老板開了“上帝之眼”,各種報(bào)表分析、排行榜、工時(shí)計(jì)算、行進(jìn)路線一覽無(wú)余,才有了我們保質(zhì)保量完成的“本分”和“福報(bào)”。
……
為什么技術(shù)越先進(jìn),我們的生活反而越不自由?
人工智能究竟是要將我們從繁瑣的工作中解放出來(lái),還是要站在我們的對(duì)立面壓迫我們?
圖源:Unsplash
在《AI會(huì)取代我們嗎?》一書中,科學(xué)記者、神經(jīng)科學(xué)家范雪莉梳理了過(guò)去60年人工智能的爆炸式發(fā)展和未來(lái)的發(fā)展前景,描繪了人工智能目前的局限和存在的道德倫理問(wèn)題,使我們對(duì)人類與人工智能的關(guān)系有了更清醒的認(rèn)知。
范雪莉接受了中信大方及造就聯(lián)合發(fā)起的提問(wèn),回答了一些讀者提出的問(wèn)題:
過(guò)去20中,AI領(lǐng)域發(fā)生的哪件事使你印象最深刻或最驚訝?
AI對(duì)我們的日常生活有哪些影響?
你對(duì)AI的未來(lái)有什么擔(dān)憂或期待嗎?
AI和人類智能最根本的區(qū)別是什么?
你認(rèn)為發(fā)展AI是一場(chǎng)技術(shù)政治競(jìng)賽嗎?
以下內(nèi)容節(jié)選自《AI會(huì)取代我們嗎?》,由出版社授權(quán)發(fā)布。
不完善的算法會(huì)帶來(lái)可怕的結(jié)果,在2016年,一輛半自動(dòng)特斯拉汽車引發(fā)了一起致命的交通事故,這就是一個(gè)實(shí)例。
事發(fā)時(shí),處在自領(lǐng)航(Auto-pilot)模式中的汽車錯(cuò)誤地將一輛白色牽引掛車判斷為從背光角度看到的明亮天空的一部分,從而導(dǎo)致與拖車底部相撞。
2018年3月,一輛優(yōu)步機(jī)器人汽車在亞利桑那州的坦佩市撞死了一名行人。事后調(diào)查發(fā)現(xiàn),人工智能其實(shí)已經(jīng)探測(cè)到了這名女子,但算法錯(cuò)誤地判斷她不在車輛的前進(jìn)路線上。
不久之后,一輛處于自動(dòng)駕駛模式中的慧摩汽車受到了一輛人類駕駛的汽車的撞擊,該事件也給研究者們出了一個(gè)難題:如何改良人工智能駕駛員的程序,才能讓它們更好地同人類駕駛員平安無(wú)事地共享道路。
幾個(gè)月后,一輛特斯拉S型(Model S)箱式轎車撞上了一堵混凝土墻,導(dǎo)致兩名乘客死亡。
圖源:NBC News
不過(guò),盡管發(fā)生了這些悲慘的事故,但自動(dòng)駕駛汽車安全性的整體統(tǒng)計(jì)數(shù)據(jù)還是讓人眼前一亮。
例如,慧摩的汽車雖然卷入了大約30起輕微撞車事故中,但只有一起事件是由慧摩車一方引起的。
2016年,一輛慧摩車在自動(dòng)駕駛模式下變道進(jìn)入了一輛公共汽車的車道,使汽車遭到了輕微的損傷。但在該事件中并沒(méi)有任何人受傷。
英特爾在2017年發(fā)布的一項(xiàng)研究預(yù)測(cè)稱,自動(dòng)駕駛汽車的投放可以在短短十年內(nèi)挽救超過(guò)50萬(wàn)人的生命。
盡管如此,公眾對(duì)人工智能汽車的信任度仍然處在歷史最低水平。
皮尤研究中心(Pew Research Center)在2017年展開的一項(xiàng)調(diào)查顯示,超過(guò)一半的受訪公眾對(duì)乘坐自動(dòng)駕駛汽車不放心,而他們反對(duì)的理由正是對(duì)安全性的擔(dān)憂和掌控感的缺失。
美國(guó)汽車協(xié)會(huì)在2018年3月優(yōu)步車致死事故發(fā)生后進(jìn)行的一項(xiàng)調(diào)查顯示,有73%的美國(guó)人表示自己害怕乘坐自動(dòng)駕駛汽車,這一數(shù)字比2017年底增加10%。
這些擔(dān)憂有一部分來(lái)自人們對(duì)機(jī)器學(xué)習(xí)和人工智能背后的機(jī)制缺乏了解。
對(duì)于公眾而言,人工智能就像是一種神秘的煉金術(shù):某些算法在某些時(shí)候會(huì)產(chǎn)生正確的答案,但是當(dāng)它們失敗時(shí)——比如,當(dāng)Siri對(duì)一個(gè)提問(wèn)給出了荒唐的答案時(shí)——消費(fèi)者無(wú)法理解其成因是什么。
消費(fèi)者無(wú)法理解Siri給出荒唐答案的成因圖源:Unsplash
同樣,當(dāng)網(wǎng)飛給用戶興趣建立的檔案錯(cuò)得離譜時(shí),或者當(dāng)自動(dòng)駕駛汽車停靠在了自行車道上時(shí),用戶無(wú)法追問(wèn)這類技術(shù)到底是在哪里出了問(wèn)題。
更為嚴(yán)肅的是那些生死攸關(guān)的事項(xiàng),例如對(duì)人工智能武器的使用。美國(guó)軍方正在考慮在軍事任務(wù)中應(yīng)用機(jī)器學(xué)習(xí)技術(shù),以幫助情報(bào)分析人員對(duì)大量監(jiān)視數(shù)據(jù)進(jìn)行模式識(shí)別,或者操控自主無(wú)人機(jī)。
在這些應(yīng)用中,出錯(cuò)卻無(wú)法解釋自身錯(cuò)誤的算法會(huì)帶來(lái)災(zāi)難性的后果。
這種缺乏信任的情況也延伸到了醫(yī)學(xué)界。盡管有放射醫(yī)學(xué)人工智能研發(fā)者的鄭重承諾,但醫(yī)療護(hù)理從業(yè)人員對(duì)完全接受人工智能診斷技術(shù)仍然持保留態(tài)度。
有一種反對(duì)意見是,雖然人工智能技術(shù)確實(shí)振奮人心,但是大多數(shù)人工智能工具并沒(méi)有經(jīng)過(guò)受到足夠數(shù)量的獨(dú)立研究組的測(cè)試。
因此它們的一些關(guān)鍵細(xì)節(jié)并沒(méi)有得到驗(yàn)證,也就是說(shuō),它們無(wú)法被證明可以應(yīng)用于所有、任何患者樣本。
不過(guò),同Siri、自動(dòng)駕駛汽車和自主武器面臨的問(wèn)題一樣,一個(gè)更強(qiáng)有力的反駁意見是:
在今天,無(wú)論是對(duì)還是錯(cuò),人工智能系統(tǒng)都無(wú)法解釋它們的決定,甚至它們的開發(fā)者也對(duì)促成系統(tǒng)決定的緣由一頭霧水。
圖源:Pixabay
這一問(wèn)題十分嚴(yán)重,以至于人工智能算法常常被人們描述為“黑箱系統(tǒng)”。
因此,不可理解性是人工智能算法的一個(gè)主要局限,也是阻礙人工智能系統(tǒng)得到公眾信任一個(gè)重要因素。
機(jī)器學(xué)習(xí)的不透明性在一定程度上是由算法的訓(xùn)練方式造成的。今天我們所使用的大多數(shù)人工智能應(yīng)用都依賴于深度學(xué)習(xí),這種人工神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與人腦大致相似。
每個(gè)這樣的神經(jīng)網(wǎng)絡(luò)的出發(fā)點(diǎn)都是大量的數(shù)據(jù),比如數(shù)百萬(wàn)張狗的照片。
當(dāng)數(shù)據(jù)通過(guò)神經(jīng)網(wǎng)絡(luò)的復(fù)數(shù)計(jì)算層時(shí),各層會(huì)逐步提取出越來(lái)越多的抽象特征,使正確的結(jié)果能在最終輸出層產(chǎn)生出來(lái),如對(duì)吉娃娃和迷你杜賓犬做出區(qū)別。
但是,由于此過(guò)程是在神經(jīng)網(wǎng)絡(luò)內(nèi)部進(jìn)行的,因此研究人員并不一定能對(duì)每個(gè)抽象特征做出解釋,也不一定能理解網(wǎng)絡(luò)是如何決定提取特定特征的集合的。
毫無(wú)疑問(wèn),機(jī)器學(xué)習(xí)具有在各行各業(yè)改天換日的巨大能量,它既可以拓展人類的能力,也可以在一些任務(wù)中取代人類。
但是,在研究人員找到讓算法變得更易理解,繼而變得更加有能力為自己負(fù)責(zé)的方法之前,我們不應(yīng)該讓這種情況發(fā)生。
令人欣慰的是,最近的研究表明,我們并非對(duì)機(jī)器學(xué)習(xí)的黑箱特征束手無(wú)策。實(shí)際上,已經(jīng)有研究人員在著手研發(fā)能夠探查機(jī)器學(xué)習(xí)大腦內(nèi)部情況的新工具了,這是一個(gè)名為人工智能神經(jīng)科學(xué)的研究分支。
其中一種構(gòu)思是:微妙地改變算法的輸入,并觀察是否有影響,以及哪些變化會(huì)影響輸出,我們就能獲得解釋。
例如,一種被稱為“局部可解釋模型–不可知論解釋”(Local Interpretable Model–Agnostic Explanation = LIME萊姆)的工具就能通過(guò)巧妙改變?cè)驾斎雭?lái)尋找影響人工智能判斷的關(guān)鍵因素。
為了了解影響負(fù)責(zé)電影評(píng)分的人工智能的因素,萊姆會(huì)細(xì)致地刪除或更換在一篇影評(píng)的原始文本中導(dǎo)致正面評(píng)價(jià)的單詞。然后,系統(tǒng)會(huì)觀察電影評(píng)分可能出現(xiàn)的變化。
反復(fù)進(jìn)行這個(gè)過(guò)程,萊姆就能梳理出一些結(jié)論,比如,“漫威”這個(gè)詞幾乎總是與高評(píng)分正相關(guān)的。
上述路徑的另一個(gè)分支是由谷歌開發(fā)的,它以一個(gè)空白的參照項(xiàng)(比如純黑的圖片)作為開始,然后逐步將其轉(zhuǎn)換為輸入圖像。
在每一步轉(zhuǎn)化的過(guò)程中,研究人員可以觀察人工智能生成的圖像結(jié)果,并推斷哪些特征對(duì)它的決定很重要。
另一種構(gòu)思依賴于一種本質(zhì)上扮演了機(jī)器—人類翻譯器角色的算法。具體來(lái)說(shuō),該算法可以向人類觀測(cè)者解釋特定的人工智能正在嘗試進(jìn)行怎樣的活動(dòng)。
OpenAI公司使用該策略來(lái)檢查用于防御黑客的人工智能算法。這種方法在基礎(chǔ)算法之外引入了一個(gè)處理自然語(yǔ)言算法,它就是翻譯器。
翻譯器被用于對(duì)防黑客算法提問(wèn),考察后者的智慧。研究人員可以觀察問(wèn)答部分,并且在翻譯器的幫助下了解在防黑客算法的決策背后所隱藏的邏輯。
當(dāng)然,有一些人工智能的決策根本無(wú)法得到完整的解釋,這也是完全有可能的。畢竟,人類的種種決定通常都包含有直覺(jué)因素,受到本能和經(jīng)驗(yàn)的指引。
而對(duì)于研究者們來(lái)說(shuō),他們所面臨的問(wèn)題是在何種程度上,能夠讓他們的發(fā)明去合理地解釋自身。
還有一個(gè)更為隱蔽的后果,需要我們?nèi)f分警惕:人工智能算法可能會(huì)根據(jù)種族、性別或意識(shí)形態(tài)隱約但系統(tǒng)性地對(duì)某些人群給予區(qū)別對(duì)待。
谷歌的第一代自動(dòng)相片標(biāo)簽系統(tǒng)曾將非裔人誤認(rèn)為大猩猩,激起了人們的憤怒,就是一個(gè)廣為人知的負(fù)面案例。
普洛帕布利卡(ProPublica)在2016年對(duì)一款用于預(yù)測(cè)罪犯重新犯罪概率的風(fēng)險(xiǎn)評(píng)估軟件——孔帕斯(COMPAS)進(jìn)行了調(diào)查,結(jié)果顯示,雖然該軟件并沒(méi)有專門針對(duì)種族做出明確設(shè)計(jì),但是它依然對(duì)黑人抱有偏見。
2017年的一項(xiàng)研究表明,算法在單詞聯(lián)想中也會(huì)表現(xiàn)出偏見:男性更可能與工作、數(shù)學(xué)和科學(xué)聯(lián)想到一起,而女性則會(huì)同家庭和藝術(shù)聯(lián)想在一起。這些偏見會(huì)對(duì)就業(yè)招聘產(chǎn)生直接影響。
例如,如果一款人工智能程序認(rèn)為“男性”與“程序員”兩個(gè)詞有固有的聯(lián)系,那么,當(dāng)它在為一個(gè)計(jì)算機(jī)編程職位檢索簡(jiǎn)歷的時(shí)候,就很可能會(huì)將有著一個(gè)聽起來(lái)像男性的名字的簡(jiǎn)歷排到面試表的頂部。
算法在單詞聯(lián)想中也會(huì)表現(xiàn)出偏見圖源:繪本I'm glad I'm a boy! I'm glad I'm a girl!
偏見也同樣為翻譯軟件帶來(lái)了麻煩。例如,在谷歌翻譯將其他語(yǔ)言中的一個(gè)中性代詞翻譯為英語(yǔ)的時(shí)候,如果這個(gè)代詞在語(yǔ)境中指的是一位醫(yī)生,它就會(huì)將這個(gè)詞翻譯為男性的“他”(he);
而如果這個(gè)代詞在語(yǔ)境中指的是一位護(hù)士,它就會(huì)將其翻譯為女性的“她”(she)。
另外,語(yǔ)音識(shí)別軟件在處理女性聲音和方言時(shí)效果要差得多,這就使得那些使用非標(biāo)準(zhǔn)發(fā)音方式的社會(huì)重要成員受到了排斥。
另外一些算法可能已經(jīng)以一種不易察覺(jué)的方式扭曲了人們接受醫(yī)療或保險(xiǎn)的類型,改變了他們?cè)谛淌滤痉ㄏ到y(tǒng)中的待遇,或者對(duì)哪些家庭更有可能虐待兒童做出不恰當(dāng)?shù)念A(yù)測(cè)。
偏見和不公正侵蝕了人類與人工智能系統(tǒng)之間的信任,它并不能像人們一開始預(yù)測(cè)的那樣成為一個(gè)對(duì)社會(huì)貢獻(xiàn)巨大的均衡器——在從中立的角度做出影響生活的決定這件事上,人工智能可能并不比人類做得更好。
果真如此,那么社會(huì)為什么認(rèn)為機(jī)器可以成為銀行從業(yè)者、招聘人員、警察或法官“更公正”的替代品呢?
……
2017年,由來(lái)自學(xué)界、民間組織和產(chǎn)業(yè)界的二十多位作者共同發(fā)表了一份報(bào)告,論述了隨著人工智能技術(shù)愈發(fā)強(qiáng)大和普及,它可能會(huì)以哪些方式變成邪惡的幫兇。該報(bào)告列舉了一系列可怕的例子:
一輛被盜用的自動(dòng)駕駛汽車可能會(huì)被操縱,撞到人群之中,或者被劫持用來(lái)運(yùn)送爆炸物。感染了惡意軟件的大腦芯片或心臟起搏器可能被用于遠(yuǎn)程暗殺,犯罪分子也可以用面部或語(yǔ)音模擬技術(shù)進(jìn)行精準(zhǔn)定位網(wǎng)絡(luò)詐騙。
該報(bào)告呼吁,人工智能研究人員應(yīng)在其科技產(chǎn)品中設(shè)置安全保障,并更為公開地討論潛在的安全、安保問(wèn)題。
令人驚訝的是,該報(bào)告甚至建議研究人員應(yīng)該在他們?yōu)楫a(chǎn)品公開發(fā)布的內(nèi)容中隱瞞某些想法或應(yīng)用方式。
如今,大多數(shù)研究人員抱有一種公開透明的態(tài)度,他們會(huì)在博客文章中發(fā)布他們的作品,并將代碼開源。
該領(lǐng)域的許多人認(rèn)為,對(duì)于可能出現(xiàn)的有問(wèn)題的人工智能應(yīng)用,更好的策略是揭示它們,并在它們發(fā)生前就給出警告,防患于未然,而不是讓它們不為人知地被開發(fā)出來(lái)。
事實(shí)上,在谷歌為其語(yǔ)音模仿程序杜普雷克斯辯護(hù)時(shí),也用了同樣的論據(jù):通過(guò)發(fā)布具有潛在破壞性的人工智能程序,公司就能收到公眾關(guān)于如何最好地對(duì)這種技術(shù)加以規(guī)范的反饋。
在某些人看來(lái),人工智能從業(yè)者中的這種開放氛圍似乎有些天真,但它其實(shí)在一定程度上是由該領(lǐng)域的歷史造成的。
在過(guò)去,人工智能所經(jīng)歷的幾度沉浮讓人們覺(jué)得人工智能的應(yīng)用和改變社會(huì)的能力被高估了。
對(duì)人工智能發(fā)展水平持懷疑態(tài)度的人相信,有關(guān)人工智能道德或倫理的擔(dān)憂根本沒(méi)有意義,因?yàn)檫@種技術(shù)可能永遠(yuǎn)不會(huì)完全成熟。
人工智能可能永遠(yuǎn)不會(huì)完全成熟圖源:Jason Reed/The Daily Dot
這些反對(duì)者的意見并非空穴來(lái)風(fēng):盡管最近在自動(dòng)化領(lǐng)域發(fā)生了一次革新,但作為當(dāng)前人工智能熱的主要推手,機(jī)器學(xué)習(xí)算法嚴(yán)重的局限性也已經(jīng)逐漸顯露了出來(lái)。
如果這些問(wèn)題沒(méi)有得到及時(shí)解決,導(dǎo)致投資者的期待無(wú)法得到滿足,那么人工智能的另一個(gè)冬天可能就離我們不遠(yuǎn)了。