李飛飛領(lǐng)銜!16位跨學(xué)科大牛談AI的下個(gè)十年干貨
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus和深度學(xué)習(xí)先驅(qū)和2018年圖靈獎(jiǎng)得主Yoshua Bengio在線上進(jìn)行了一場“神仙打架”,邀請了包括李飛飛在內(nèi)16位全球知名的AI學(xué)者、生物科學(xué)家和法律界專家,討論近一年內(nèi)AI各領(lǐng)域的進(jìn)展突破,以及下一個(gè)十年如何將人工智能提升到下一個(gè)階段。
此次圓桌論壇圍繞著“如何用跨學(xué)科方法推動(dòng)AI前進(jìn)(Moving AI Forward: An Interdisciplinary Approach)”的主題,下分三個(gè)模塊:架構(gòu)與挑戰(zhàn)(Architecture and Challenges)、神經(jīng)科學(xué)與心理學(xué)帶來的洞見(Insights from Neuroscience and psychology)、構(gòu)建可信任的AI(Towards AI we can trust),共持續(xù)了三個(gè)多小時(shí)。
演講主題匯總:https://montrealartificialintelligence.com/aidebate2/readings.pdf
辯論視頻:https://montrealartificialintelligence.com/aidebate2/
一、李飛飛:與環(huán)境交互是下一顆AI“北極星”
作為首位發(fā)言嘉賓,斯坦福大學(xué)教授李飛飛提到了AI領(lǐng)域的“北極星”,即未來學(xué)科的發(fā)展方向。在過去五十年中,AI領(lǐng)域有一顆很重要的“北極星”就是物體識別,這也是人類認(rèn)知能力中很重要的部分。物體識別的進(jìn)步也帶來了如ImageNet等AI基準(zhǔn)測試水平的巨大突破。
李飛飛援引了1963年一項(xiàng)基于動(dòng)物的“與環(huán)境交互產(chǎn)生行為刺激”的研究,提出培養(yǎng)下一代AI與環(huán)境交互是未來很重要的研究方向。
她也提到互動(dòng)是智力很重要的組成部分,就像嬰兒通過與外界的互動(dòng)認(rèn)識世界一樣,下一代AI也應(yīng)該具備通過與外界交互發(fā)展自身智能的能力,而這一代AI的實(shí)體也不僅限于物理機(jī)器人,智能體(Agent,可以自主活動(dòng)的軟件或者小型硬件)也可以。
二、Luís Lamb:架起符號AI和神經(jīng)網(wǎng)絡(luò)的“橋梁”
巴西南里約熱內(nèi)盧聯(lián)邦大學(xué)計(jì)算機(jī)科學(xué)教授Luís Lamb延續(xù)他上周在NeurIPS AI會(huì)議上的話題,談到了“神經(jīng)符號AI(neurosymbolic AI)”。
神經(jīng)符號AI即將上世紀(jì)70年代AI學(xué)界流行的符號主義與目前主流的神經(jīng)網(wǎng)絡(luò)算法融合。
簡單言之,符號AI可以對物體進(jìn)行分類及定義,存在自己的知識庫中,但如果需要回答更復(fù)雜的問題則需要構(gòu)建足夠龐大的知識庫,因?yàn)榉朅I只能回答知識庫中已有的分類。
神經(jīng)符號AI具體的實(shí)現(xiàn)辦法,是利用深度神經(jīng)網(wǎng)絡(luò)構(gòu)建符號AI所需要的知識庫,然后使用符號AI對任務(wù)進(jìn)行推理。
Lamb提到連接符號AI和神經(jīng)網(wǎng)絡(luò)的通用方法是未來很重要的研究方向,Marcus在《代數(shù)思維(The Algebraic Mind)》提到的在神經(jīng)網(wǎng)絡(luò)中控制符號AI的方法也非常有借鑒意義。
三、Rich Sutton:強(qiáng)化學(xué)習(xí)或是AI的第一個(gè)計(jì)算理論
DeepMind科學(xué)家Rich Sutton認(rèn)為AI需要一種公認(rèn)的智能計(jì)算理論。
他引用了神經(jīng)科學(xué)家David Marr三個(gè)處理級別的概念:計(jì)算理論、表征和算法以及硬件設(shè)備,提出當(dāng)前AI屆中并沒有計(jì)算理論,梯度下降等可以被稱為AI的方法,但遠(yuǎn)稱不上理論。
在發(fā)言的最后,Sutton總結(jié)道,強(qiáng)化學(xué)習(xí)或許會(huì)是智能的第一個(gè)計(jì)算理論,預(yù)測編碼和貝葉斯推斷也可能可以被稱為AI的計(jì)算理論。
四、Judea Pearl:模型要“明白”因果關(guān)系
圖靈獎(jiǎng)獲得者、貝葉斯網(wǎng)絡(luò)之父、暢銷書《為什么(Why)》的作者Judea Pearl探討了如何讓模型理解因果關(guān)系。
Pearl認(rèn)為如果我們想讓模型知道“目前是什么情況”、“如果發(fā)生了這個(gè)情況要怎么辦”以及“只有這一種情況嗎”,那么深度理解是最好的辦法。
模型的深度理解是建立在深度學(xué)習(xí)基礎(chǔ)上的,Pearl說,自己新開發(fā)的、可以表征模型“心理狀態(tài)”的計(jì)算模型就是基于對模型因果關(guān)系的深度學(xué)習(xí)。
五、Robert Ness:概率編程輔助因果推理
機(jī)器學(xué)習(xí)專家Robert Ness演講的主題是“因果推理與(深度)概率規(guī)劃(causal reasoning with (deep) probabilistic programming)”。
Ness說,概率編程能夠幫助我們在面對不確定性時(shí)做出決策,這很大程度地規(guī)避了因果推理中過于依賴先驗(yàn)事實(shí)的缺點(diǎn),也可以解決一部分Pearl所提到的“只有這一種情況嗎”的問題。
Ness以新冠病毒傳播模型為例,概率編程可以利用自身“不確定性”,基于先前的傳染病數(shù)據(jù)進(jìn)行流行病學(xué)建模,為“抗疫”貢獻(xiàn)自己的力量。
六、Ken Stanley:計(jì)算機(jī)的進(jìn)化之路
中佛羅里達(dá)大學(xué)(the University of Central Florida)計(jì)算機(jī)科學(xué)教授Ken Stanley探討了進(jìn)化與創(chuàng)造性,計(jì)算機(jī)能解決很多問題,但人類也能做到很多計(jì)算機(jī)做不到的事情,那就是開放性的創(chuàng)新。
“在過去數(shù)千年,從鉆木取火到太空空間站,我們懷抱著一個(gè)開放的心態(tài),在舊事物上發(fā)展出新事物。”Stanley認(rèn)為,但計(jì)算機(jī)的進(jìn)化路徑卻是“現(xiàn)象型(phenomenal)”的,不同的階段會(huì)出現(xiàn)不同的應(yīng)用需求和新方法,我們需要去理解這些現(xiàn)象,才能持續(xù)計(jì)算機(jī)的“進(jìn)化之路”。
Stanley也承認(rèn)目前看來,計(jì)算機(jī)或者說AI的“進(jìn)化”并不那么完美,像AI仿制一些藝術(shù)畫作,或許看起來像模像樣,但其實(shí)不算真正的藝術(shù),還會(huì)對那些藝術(shù)初學(xué)者造成打擊。
Stanley認(rèn)為,這時(shí)候就需要我們?nèi)フ_看待AI,它是幫助我們的工具,真正的目的是幫助人類進(jìn)步,它的進(jìn)化與人類的進(jìn)步是相輔相成的。
七、Yejin Choi:AI語言模型還需要有大突破
華盛頓大學(xué)計(jì)算機(jī)科學(xué)系副教授Yejin Choi通過著名的視覺幻覺“隧道中的怪物”,談到大腦是如何基于視覺情景理解圖像內(nèi)容。
隨即,Choi也指出語言理解是未來AI應(yīng)用很重要的一部分,人類大部分信息和推理都是依靠語言獲取和傳播的,未來AI的語言能力也應(yīng)該像人類一樣,能夠即時(shí)基于當(dāng)前信息進(jìn)行推理。她認(rèn)為這將成為未來AI發(fā)展的關(guān)鍵和根本性挑戰(zhàn)之一,但目前如GPT-4/5/6等未來新的語言模型都遠(yuǎn)遠(yuǎn)不足以達(dá)到這個(gè)目標(biāo)。
八、Barbara Tversky:生命在于運(yùn)動(dòng)
在以上七位科學(xué)家討論完關(guān)于AI算法的未來預(yù)期后,本次圓桌論壇還邀請了五位生物、神經(jīng)科學(xué)領(lǐng)域的專家,討論生物和AI“跨界”合作。
斯坦福大學(xué)心理學(xué)名譽(yù)教授Barbara Tversky認(rèn)為,所有的生物都必須在空間中運(yùn)動(dòng),運(yùn)動(dòng)停止,生命也就終結(jié)了。Tversky還談到了人們?nèi)绾巫鍪謩菀约澳軌蛴绊懭祟愃季S變化的運(yùn)動(dòng)。
她說:“學(xué)習(xí)、思考、溝通、合作以及競爭,都依賴于行動(dòng)以及少量話語。”
Tversky也同樣擔(dān)心當(dāng)AI模仿人的行為去學(xué)習(xí)的時(shí)候,是否也會(huì)“繼承”人類的一些錯(cuò)誤。如何讓AI有創(chuàng)造力地不斷進(jìn)化更新,同時(shí)規(guī)避人類行為中負(fù)面的部分,Tversky表示很感興趣。
九、Daniel Kahneman:人類思考范式可被AI借鑒
諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主、AI推理問題權(quán)威書籍《快思慢想》(Thinking, Fast and Slow)作者Daniel Kahneman認(rèn)為世界上存在兩種思考范式,一種是直觀的認(rèn)知,比如依靠生活經(jīng)驗(yàn),我們可以預(yù)測到絕大多數(shù)可能將會(huì)發(fā)生的事,另一種是更高級的推理形式,比如我們能從更寬闊的視角,推測那些可能“反常識”的事件。
Kahneman認(rèn)為這種人類思考范式可以被AI所借鑒,發(fā)展出AI模型自己的思維,也能回答Pearl之前提到過的因果推理問題。
十、Doris Tsao:機(jī)器學(xué)習(xí)與神經(jīng)科學(xué)攜手共進(jìn)
加州理工學(xué)院生物學(xué)教授Doris Tsao基于對神經(jīng)元的研究,認(rèn)為反饋系統(tǒng)不僅在生物神經(jīng)傳導(dǎo)中非常重要,在多層神經(jīng)網(wǎng)絡(luò)的反向傳播中也有很大作用。
她說道,反饋或許不僅能讓人們構(gòu)建出魯棒性更強(qiáng)的視覺系統(tǒng),也能幫助人類理解為什么會(huì)產(chǎn)生幻覺。
Tsao同時(shí)也對機(jī)器學(xué)習(xí)與神經(jīng)科學(xué)跨學(xué)科合作的未來充滿希望。
十一、Adam Marblestone:卷積神經(jīng)網(wǎng)絡(luò)對人腦的模范還非常“初級”
前DeepMind教授、加州理工學(xué)院神經(jīng)科學(xué)專家Adam Marblestone探討了人類大腦運(yùn)行規(guī)律和神經(jīng)網(wǎng)絡(luò)算法的異同。
在討論中,Marblestone提到目前用功能核磁共振成像技術(shù)對人類腦部活動(dòng)進(jìn)行分析,研究人類是如何對物體進(jìn)行分類。他認(rèn)為目前科學(xué)家對大腦的研究還處于非常原始的階段,像卷積神經(jīng)網(wǎng)絡(luò)之類的算法也只是簡單地復(fù)制了人類思維過程。
十二、Christof Koch:借鑒人腦發(fā)展AI尚不可行
西雅圖艾倫腦科學(xué)研究所研究員Christof Koch則提出了不一樣的觀點(diǎn)。他認(rèn)為科學(xué)家了解人腦至少還需要一兩百年的事件,指望借助神經(jīng)科學(xué)來助力人工智能的發(fā)展是行不通的,人腦與AI等人造物體的特性完全不同。
Koch的觀點(diǎn)與上述幾位神經(jīng)學(xué)家的觀點(diǎn)發(fā)生了激烈的碰撞。
針對Koch和Marblestone關(guān)于“細(xì)胞的傳導(dǎo)與神經(jīng)網(wǎng)絡(luò)中節(jié)點(diǎn)的傳導(dǎo)具有相似性”的反駁,Koch回答,即使是人類細(xì)胞自身也大不相同,例如視覺神經(jīng)元與前額葉皮質(zhì)神經(jīng)元就非常不同,而換到神經(jīng)網(wǎng)絡(luò)等人造算法上,情況則更加多樣。
Marblestone則認(rèn)為Koch的觀點(diǎn)需要更多實(shí)癥證明。
十三、Celeste Kidd:AI偏見助長社會(huì)中已有的歧視情緒
隨著論壇進(jìn)入了第三個(gè)模塊,四位受邀專家開始討論AI對人類社會(huì)倫理道德和生活的影響。
加州大學(xué)伯克利分校教授Celeste Kidd的研究課題是人類如何形成認(rèn)知。Kidd認(rèn)為,AI系統(tǒng)的偏見強(qiáng)化了使用者的偏見,內(nèi)容推薦系統(tǒng)會(huì)使人們對已有偏見堅(jiān)信不疑,而亞馬遜和領(lǐng)英的AI招聘系統(tǒng)則會(huì)對女性候選者造成負(fù)面影響。
Kidd說:“像Timnit Gebru被谷歌解雇這件事一樣,因?yàn)锳I引起的紛爭可能會(huì)成為常態(tài)。”
十四、Margaret Mitchell:用技術(shù)攻破技術(shù)“偏見”
谷歌高級研究科學(xué)家Margaret Mitchell認(rèn)為這些偏見是源于模型本身的創(chuàng)建過程。
通常開發(fā)機(jī)器學(xué)習(xí)算法,需要經(jīng)歷收集數(shù)據(jù)、訓(xùn)練模型、評估模型以及使用的過程。但在收集、標(biāo)記數(shù)據(jù)的過程中,人類參與必不可少,這就注定了模型會(huì)帶有一些來自于開發(fā)者的偏見。
Mitchell說:“技術(shù)有技術(shù)的優(yōu)勢,但技術(shù)本身確實(shí)會(huì)帶有一定風(fēng)險(xiǎn)。我們試圖解決這些問題,用如洗刷偏見(bias laundering)等方法去減少系統(tǒng)中的偏見。”
十五、Francesca Rossi:如何建立可信任的AI生態(tài)系統(tǒng)
承接著Mitchell的話題,IBM的Rossi談到如何創(chuàng)建可信任的AI生態(tài)系統(tǒng)。
Rossi說道,一個(gè)成熟的AI系統(tǒng)需要涵蓋許多特點(diǎn),比如準(zhǔn)確性、一致性、公平性和可解釋性。如何向人類同伴們,解釋機(jī)器是如何工作的非常重要,這也是Mitchell所提到的洗刷偏見的問題。
Rossi認(rèn)為,這個(gè)過程依舊需要大量的研究和試驗(yàn),保證模型如何在訓(xùn)練階段就能很大程度上消除偏見,神經(jīng)符號AI以及Kahneman所提到的兩種人類思維范式都會(huì)是今后的研究方向。
十六、Ryan Calo:AI將會(huì)給法律帶來改變
本次論壇最后一個(gè)演講嘉賓是華盛頓大學(xué)法學(xué)教授Ryan Calo。
他認(rèn)為技術(shù)是很難被監(jiān)管的,我們只有讓法律跟著AI的變化進(jìn)行相應(yīng)的規(guī)定,而實(shí)施的第一步就是評估AI對人類生活在哪些方面產(chǎn)生影響,每個(gè)方面又有多大程度的影響,再讓法律靈活地進(jìn)行調(diào)整。
AI也必然會(huì)帶來法律的修改,無論是目前公眾關(guān)于AI“公平”與否的爭論,還是法律界內(nèi)部的討論,目的都只有一個(gè),就是保證AI技術(shù)成本和收益平均分配,在便利人民生活的同時(shí),防止對個(gè)人隱私的侵犯。
結(jié)語:讓世界變得更好的AI初心
當(dāng)三個(gè)小時(shí)的論壇快結(jié)束時(shí),主持人Marcus問了所有嘉賓一個(gè)問題:“AI走到哪一個(gè)地步你們會(huì)滿意,我們構(gòu)建AI的終極目標(biāo)是什么?”
盡管每位學(xué)者回答的角度和內(nèi)容都不同,但有三個(gè)詞反反復(fù)復(fù)地出現(xiàn):有趣、友善和公平,而最后的落腳點(diǎn)也只有一個(gè),用技術(shù)讓所有人過上更好的生活。
或許這個(gè)過程會(huì)有偏差和坎坷:算法會(huì)不公、監(jiān)管會(huì)不全……但每位AI研究者依舊懷抱著純粹的初心,在2020末尾的冬夜里,隔著遙遙網(wǎng)線,暢談著AI的下一個(gè)十年。