揭秘AI深處的黑暗面:人工智能將取代人類,而你卻不知道它是如何機(jī)器學(xué)習(xí)的
去年,一輛自動(dòng)駕駛汽車駛?cè)胄聺晌髦菝擅┧箍h。這輛實(shí)驗(yàn)汽車出自芯片制造商英偉達(dá)之手,從外觀看,它和谷歌、特斯拉或通用的其他自動(dòng)駕駛汽車并沒有多大差別。
但它的內(nèi)在可大不一樣。這輛車不需要工程師或編程人員的任何指令;相反,它依賴一套算法,通過觀看人類司機(jī)來自學(xué)如何開車。
能讓一輛汽車做到這個(gè)程度,確實(shí)是非常大的進(jìn)步。
但與此同時(shí),這也讓人心有不安,誰(shuí)知道這車到底是怎樣做決定的呢。根據(jù)駕駛程序,這輛車的傳感器所收集的信息會(huì)直接進(jìn)入一個(gè)巨大的人工神經(jīng)網(wǎng)絡(luò),進(jìn)行處理數(shù)據(jù),然后發(fā)送指令,是轉(zhuǎn)動(dòng)方向盤啦,還是剎車?yán)?,還是其他動(dòng)作等等??瓷先ィ@輛車能夠模仿人類司機(jī)的應(yīng)對(duì)措施。
但是,如果有一天,它做了讓人意想不到的事情——比方說撞樹了,或者停在綠燈前面不走了——這怎么辦?按照目前的情況,我們可能不太能輕易找出背后的原因。這套系統(tǒng)實(shí)在復(fù)雜,哪怕是開發(fā)它的工程師都很難獨(dú)立出每個(gè)動(dòng)作背后的原因。而且你也沒法讓工程師設(shè)計(jì)一個(gè)能解釋所有動(dòng)作的系統(tǒng)。
汽車“神秘”的思維模式,也就是人工智能技術(shù)的一大潛在問題。英偉達(dá)汽車所使用的人工智能技術(shù),也叫做深度學(xué)習(xí)。近幾年,這一技術(shù)在解決問題上顯示出了強(qiáng)大的能力,而在圖像捕捉、語(yǔ)音識(shí)別和翻譯等方面,人工智能已經(jīng)被廣泛使用?,F(xiàn)在有人開始想象用人工智能來診斷致命疾病、進(jìn)行商業(yè)決策等。
但是,這樣的事情是不會(huì)發(fā)生的——或者說不應(yīng)當(dāng)發(fā)生,除非我們找到某些方式,讓技術(shù)開發(fā)人員能夠進(jìn)一步理解人工智能的思維,同時(shí)也為用戶負(fù)責(zé)。如果貿(mào)然普及這一技術(shù),我們將無法預(yù)測(cè)什么時(shí)候發(fā)生災(zāi)難——而且,這是一定會(huì)發(fā)生的。這也是英偉達(dá)汽車至今仍在實(shí)驗(yàn)階段的原因。
很早之前我們就開始用數(shù)學(xué)模型來幫助決策,比方說誰(shuí)能申請(qǐng)到假釋,誰(shuí)能獲得貸款,誰(shuí)能得到某份工作。如果你能接觸到這些數(shù)學(xué)模型,那你或許能理解它們的決策模式。但現(xiàn)在,銀行、軍隊(duì)、雇主等開始尋求更為復(fù)雜的機(jī)器學(xué)習(xí)方法,好實(shí)現(xiàn)整個(gè)決策過程的自動(dòng)化。
深度學(xué)習(xí)是決策方式中最常見的技術(shù),代表著與從前完全不同的計(jì)算機(jī)編程方式。致力于研究機(jī)器學(xué)習(xí)技術(shù)應(yīng)用的麻省理工教授Tommi Jaakkola說:“這個(gè)問題現(xiàn)在已經(jīng)與我們息息相關(guān),未來還會(huì)更加普遍。不管是做投資決定、疾病診斷決定,還是軍事決定,你都不希望完全依賴一個(gè)黑箱模型吧。”
對(duì)于質(zhì)詢?nèi)斯ぶ悄芟到y(tǒng)的決策原因是否應(yīng)立為一項(xiàng)法律,這個(gè)問題已經(jīng)引起廣泛討論。從2018年夏天開始,歐盟或許會(huì)要求各個(gè)公司對(duì)自動(dòng)系統(tǒng)的決策作出解釋。但是,這一規(guī)定或許根本沒法實(shí)現(xiàn),即便是看起來相對(duì)簡(jiǎn)單的系統(tǒng)——比方說使用深度學(xué)習(xí)來投放廣告或推薦歌曲的應(yīng)用和網(wǎng)站。提供這些服務(wù)的計(jì)算機(jī)已經(jīng)自己重新編程,而它們的編程方式我們沒辦法理解。哪怕是開發(fā)這些應(yīng)用的工程師,也無法全面解釋它們的行為。
這就引起了反對(duì)者的質(zhì)疑。沒錯(cuò),我們?nèi)祟愐膊豢偰芙忉屪约旱乃季S過程,但是我們能根據(jù)直覺信任他人,評(píng)估他人。而面對(duì)一個(gè)思維和決策過程與人類完全不同的機(jī)器,直覺還能奏效嗎?
我們從未發(fā)明過連開發(fā)人員自己都不能理解的機(jī)器,那我們?nèi)绾芜€能期待和這些不可預(yù)測(cè)的機(jī)器溝通和友好相處呢?
帶著這些問題,我踏上了尋找答案的旅程。從谷歌到蘋果,我走遍了那些開發(fā)人工智能算法的公司,甚至還和當(dāng)代最知名的哲學(xué)家們進(jìn)行了一次交談。
2015年,紐約西奈山醫(yī)院的一組研究人員受到啟發(fā),開始用深度學(xué)習(xí)技術(shù)來分析醫(yī)院里的大量病歷數(shù)據(jù)。這些數(shù)據(jù)可分為上百項(xiàng),包括病人的檢測(cè)結(jié)果、看診記錄等等。研究人員將這一分析系統(tǒng)命名為Deep Patient,開發(fā)完成后,他們用70萬份病患數(shù)據(jù)對(duì)其進(jìn)行了訓(xùn)練。結(jié)果證明,在測(cè)試新數(shù)據(jù)時(shí),Deep Patient顯示出了超高的疾病預(yù)測(cè)率。在沒有專家指導(dǎo)的情況下,Deep Patient發(fā)現(xiàn)了醫(yī)院數(shù)據(jù)中的模型,而這些模型預(yù)示著對(duì)方是否將患上某些疾病。當(dāng)然,在根據(jù)病歷預(yù)測(cè)疾病方面,還有很多其他方法,但西奈山醫(yī)院研究團(tuán)隊(duì)的主管Joel Dudley說,“這種辦法更好。”
但與此同時(shí),Deep Patient也讓醫(yī)生們有些摸不著頭腦。舉個(gè)例子,Deep Patient非常擅長(zhǎng)預(yù)測(cè)精神疾病,比方說精神分裂癥。從醫(yī)的人都知道,精神分裂癥對(duì)于人類醫(yī)生來說是極難診斷的,Dudley搞不清Deep Patient是怎樣識(shí)別出來的。直到今天他也不知道。
如果諸如Deep Patient這樣的系統(tǒng)真的要幫助醫(yī)生,那它最好提供預(yù)測(cè)的基本理論,否則如何讓人相信它的準(zhǔn)確性。“我們可以創(chuàng)建這些模型,”Dudley苦笑著說,“卻不知道它們是怎樣運(yùn)作的。”
人工智能并非生來如此。對(duì)于人工智能應(yīng)當(dāng)如何理解和解釋,主要存在兩大派別。
許多人認(rèn)為應(yīng)當(dāng)根據(jù)一定的規(guī)則和邏輯來制造機(jī)器,使其內(nèi)部運(yùn)作公開透明,方便所有想要檢驗(yàn)?zāi)承┐a的人。也有人認(rèn)為,智能只有借助生物靈感——也就是觀察、體驗(yàn)人類活動(dòng),才能更順利地發(fā)展。這也就意味著,我們要把計(jì)算機(jī)編程的任務(wù)交給機(jī)器本身。
現(xiàn)在的機(jī)器學(xué)習(xí)是這樣的:編程人員編寫指令來解決某個(gè)問題,程序根據(jù)樣本數(shù)據(jù)和預(yù)期目標(biāo)來生成自己的算法。之后,機(jī)器學(xué)習(xí)技術(shù)會(huì)沿著后一條道路——也就是自己編寫程序——來升級(jí)為當(dāng)今最強(qiáng)大的人工智能系統(tǒng)。
最初,上述模式的實(shí)際用例非常有限。上世紀(jì)60和70年代,機(jī)器學(xué)習(xí)技術(shù)大多數(shù)還在行業(yè)邊緣徘徊。但很快,許多行業(yè)開始計(jì)算化,大數(shù)據(jù)催生了新的興趣點(diǎn),更強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù)隨之誕生,尤其是人工神經(jīng)網(wǎng)絡(luò)。到90年代,神經(jīng)網(wǎng)絡(luò)已經(jīng)可以實(shí)現(xiàn)手寫字符的數(shù)字化。
不過,人工智能真正的崛起時(shí)期,還要數(shù)過去10年。在幾次開發(fā)方式轉(zhuǎn)變和改良之后,超大型——或者說“深度”——神經(jīng)網(wǎng)絡(luò)在自動(dòng)感知方面顯示出了卓越進(jìn)步。深度學(xué)習(xí)也就是今天人工智能爆發(fā)的基礎(chǔ),它賦予了計(jì)算機(jī)無窮的能力,比方說幾近人類級(jí)別的語(yǔ)音識(shí)別功能。由于語(yǔ)音識(shí)別系統(tǒng)太過復(fù)雜,此前編程人員遲遲無法開發(fā)成功。而如今,這一系統(tǒng)已經(jīng)在醫(yī)藥、金融、制造等多個(gè)行業(yè)得到運(yùn)用。
即使是對(duì)計(jì)算機(jī)科學(xué)家來說,機(jī)器學(xué)習(xí)技術(shù)的運(yùn)作也是晦澀不明的,遠(yuǎn)不如人工編程易于理解。但這并不意味著未來所有的人工智能技術(shù)都是不可知的,只是從本質(zhì)上來說,深度學(xué)習(xí)就好比一個(gè)看不見內(nèi)部的黑盒子。
你無法直接探到神經(jīng)網(wǎng)絡(luò)內(nèi)部,觀察它是如何運(yùn)作的。神經(jīng)網(wǎng)絡(luò)的推理基于數(shù)千個(gè)模擬神經(jīng)元,分布于數(shù)十個(gè)或數(shù)百個(gè)復(fù)雜的互聯(lián)層上。第一層的每個(gè)神經(jīng)元負(fù)責(zé)接收數(shù)據(jù)輸入,比如圖片的像素強(qiáng)度,之后這些神經(jīng)元會(huì)對(duì)數(shù)據(jù)進(jìn)行計(jì)算,生成新的信號(hào)發(fā)送到下一層,逐次類推,直到得到最后的結(jié)果。此外,反向傳播能夠保證該神經(jīng)網(wǎng)絡(luò)生成期望結(jié)果。
深度網(wǎng)絡(luò)的多層結(jié)構(gòu)也讓其能夠從多個(gè)抽象層次識(shí)別物體。舉例來說,在一個(gè)設(shè)計(jì)來識(shí)別小狗的系統(tǒng)中,低層神經(jīng)元負(fù)責(zé)識(shí)別線條或顏色等簡(jiǎn)單目標(biāo),高層神經(jīng)元負(fù)責(zé)識(shí)別毛發(fā)或眼睛等負(fù)責(zé)目標(biāo),而在最頂端的神經(jīng)元?jiǎng)t能認(rèn)出這是一只狗。粗略地說,這種方法也能用于機(jī)器的自我學(xué)習(xí),比如識(shí)別語(yǔ)言中的發(fā)音,文本中的字母、單詞或駕駛中轉(zhuǎn)動(dòng)方向盤的動(dòng)作。
幾年以前,研究人員開始設(shè)計(jì)一些策略,試圖了解這些系統(tǒng)內(nèi)部都發(fā)生了什么。2015年,谷歌研究人員對(duì)一套以深度學(xué)習(xí)為基礎(chǔ)的圖像識(shí)別算法進(jìn)行了修改,把物體識(shí)別功能變成了生成或修改功能。只要反向運(yùn)行這一算法,他們就能知道這些程序是如何識(shí)別小鳥、大樓等物體的。很快,這項(xiàng)代號(hào)為Deep Dream的反向研究項(xiàng)目結(jié)果出爐,程序根據(jù)云朵和植物,繪制了一群荒誕恐怖、形似外星人的動(dòng)物圖片,在森林和山谷之間,還有在幻覺中才會(huì)出現(xiàn)的寶塔。
Deep Dream繪制的圖片證明,深度學(xué)習(xí)或許不是完全不可理解的。雖然它們可以識(shí)別出鳥嘴、語(yǔ)言等熟悉的視覺特征,但和人類的認(rèn)知能力相比還是有很大差距的。比如我們都知道忽略圖片中的人工制品,但深度學(xué)習(xí)網(wǎng)絡(luò)不懂這些。谷歌研究人員指出,當(dāng)算法準(zhǔn)備繪制一幅啞鈴圖片時(shí),它會(huì)自動(dòng)加上人的手臂,因?yàn)橄到y(tǒng)認(rèn)為手臂是啞鈴的一部分。
針對(duì)上述問題,科學(xué)家已經(jīng)借用神經(jīng)科學(xué)和認(rèn)知科學(xué)的知識(shí),進(jìn)行了進(jìn)一步改良。比方說懷俄明大學(xué)助理教授Jeff Clune帶領(lǐng)了一支團(tuán)隊(duì),用和上述圖片類似的幻覺圖像對(duì)深度神經(jīng)網(wǎng)絡(luò)進(jìn)行了測(cè)試。2015年,Clune團(tuán)隊(duì)研究證明,某些圖片會(huì)欺騙這一系統(tǒng),讓其識(shí)別出根本不存在的物體。這是因?yàn)檫@些圖片抓住了系統(tǒng)搜索的模式特點(diǎn)。
我們需要的,不是一孔之見,而是對(duì)人工智能思維模式的全面探索,但這并不容易。深度神經(jīng)網(wǎng)絡(luò)計(jì)算的相互作用對(duì)高層模式識(shí)別和決策至關(guān)重要,但這些計(jì)算結(jié)果背后,是大量的數(shù)學(xué)函數(shù)和變量。“如果你的神經(jīng)網(wǎng)絡(luò)規(guī)模很小,那你可能還能理解它的運(yùn)作。”Jaakkola說,“但是一旦規(guī)模擴(kuò)大到上百層,每一層有上千個(gè)神經(jīng)元單位時(shí),你就很難理解了。”
在Jaakkola隔壁辦公室的,是麻省理工教授Regina Barzilay,她決心要把機(jī)器學(xué)習(xí)技術(shù)運(yùn)用到醫(yī)藥行業(yè)。43歲那年,Barzilay被診斷出乳腺癌,讓她大為震驚。然而更讓她驚愕的是,最前沿的統(tǒng)計(jì)和機(jī)器學(xué)習(xí)法居然沒有運(yùn)用到致癌研究或病患治療上。Barzilay說,人工智能有巨大的潛力革新醫(yī)藥行業(yè),但想要挖掘出這些潛力,必然得在病歷分析的基礎(chǔ)上再進(jìn)一步。Barzilay希望將來能用上更多原始數(shù)據(jù),比方說圖像數(shù)據(jù)、病理學(xué)數(shù)據(jù)等等。
去年,在結(jié)束癌癥治療后,Barzilay開始帶領(lǐng)學(xué)生,和馬薩諸塞綜合醫(yī)院的醫(yī)生共同研發(fā)一套系統(tǒng),用于分析病理學(xué)報(bào)告,找出研究人員想要研究的特殊的臨床特征。但是,Barzilay知道,這套系統(tǒng)是沒法解釋自己的推理過程的。于是,她和Kaakkola以及一名學(xué)生一起,給系統(tǒng)增加了一個(gè)步驟:選取、標(biāo)注文本中代表某種病理模式的段落。與此同時(shí),Barzilay還在和學(xué)生編寫深度學(xué)習(xí)算法,試圖在乳房X光照片中找到乳腺癌的早期癥狀,并呈現(xiàn)出分析結(jié)果背后的原因。
正如人類行為不能完全得到解釋一樣,人工智能或許也不知道自己為什么做這個(gè)決定。Clune說:“即使某個(gè)人言辭鑿鑿地告訴你他某個(gè)行為背后的原因,這個(gè)原因很可能也是片面的,人工智能同樣適用這個(gè)道理。它可能有自己的直覺、潛意識(shí),或者就是神神秘秘的。”
如果真的是這樣,那么到將來某個(gè)時(shí)期,我們可能只能選擇相信人工智能的判斷,要么就徹底不用它。同樣,人工智能的判斷還要結(jié)合社會(huì)智能。人類社會(huì)建立在預(yù)期行為契約之上,我們需要人工智能系統(tǒng)尊重社會(huì)規(guī)范,融入社會(huì)規(guī)范。如果我們打算制造機(jī)器人坦克和其他殺人機(jī)器,那么它們的決策過程必須符合道德判斷的標(biāo)準(zhǔn)。
對(duì)此,塔夫茨大學(xué)著名哲學(xué)家和認(rèn)知科學(xué)家Daniel Denneyy說:“問題是,我們應(yīng)當(dāng)采納什么樣的標(biāo)準(zhǔn)來要求人工智能系統(tǒng)?或者說我們自己?如果人工智能系統(tǒng)在解釋自身行為上不如人類,那就不要信任它們了。”