16位頂尖學(xué)者激辯AGI!馬庫斯、LSTM之父、麥克阿瑟天才獎得主齊聚
中斷一年后,由Montreal.AI和紐約大學(xué)名譽教授Gary Marcus組織的年度人工智能辯論于上周五晚上回歸,與2020年一樣再次以線上會議形式召開。
今年的辯論——AI辯論3:AGI 辯論——重點關(guān)注通用人工智能的概念,即能夠集成無數(shù)接近人類水平的推理能力的機器。
視頻鏈接:https://www.youtube.com/watch?v=JGiLz_Jx9uI&t=7s
本次討論共計三個半小時,圍繞與人工智能相關(guān)的五個主題展開: 認知與神經(jīng)科學(xué)、常識、架構(gòu)、倫理與道德以及政策和貢獻。
除了眾多計算機科學(xué)領(lǐng)域的大牛外,還有計算神經(jīng)科學(xué)家Konrad Kording等16位專家參與其中。??
本文簡單總結(jié)了其中5位大佬的觀點,感興趣的讀者可以通過上面的鏈接觀看完整視頻。
主持人:馬庫斯
作為著名的批評家,馬庫斯引用了自己在《紐約客》上的文章《「深度學(xué)習(xí)」是人工智能發(fā)展的一場革命嗎?》,再次對AI的發(fā)展?jié)娏伺枥渌?/span>
馬庫斯表示,與李飛飛團隊成功發(fā)布ImageNet后人們對人工智能長達十年的熱情浪潮相反,制造無所不能的機器的「愿望」并沒有實現(xiàn)。
DeepMind神經(jīng)科學(xué)家Dileep George
來自谷歌DeepMind的神經(jīng)科學(xué)家Dileep George曾經(jīng)提出過一個名為「先天性」的概念。
簡單來說,就是某些「內(nèi)建」在人類思想中的想法。
那么對于人工智能來說,我們應(yīng)該更關(guān)注先天性嗎?
對此,George表示,任何一種從初始狀態(tài)到某種穩(wěn)定狀態(tài)的增長和發(fā)展都涉及三個因素。
一是初始狀態(tài)下的內(nèi)部結(jié)構(gòu),二是輸入的數(shù)據(jù),三是通用的自然法則。
「事實證明,先天結(jié)構(gòu)在我們發(fā)現(xiàn)的每個領(lǐng)域都發(fā)揮著非凡的作用?!?/span>
對于那些被認為是學(xué)習(xí)的典型例子,比如習(xí)得語言,一旦你開始拆解,就會發(fā)現(xiàn)數(shù)據(jù)幾乎并不會對其產(chǎn)生影響。
自從人類出現(xiàn)以來,語言就沒有改變過,任何文化中的任何孩子都能掌握語言就證明了這一點。
George認為,語言將成為人工智能的核心,從而讓我們有機會搞清楚,到底是什么讓人類成為一個如此獨特的物種。
華盛頓大學(xué)教授Yejin Choi
華盛頓大學(xué)計算機科學(xué)教授Yejin Choi預(yù)測道,AI在未來幾年內(nèi)的表現(xiàn),將越來越驚人。
但是,由于我們并不知道網(wǎng)絡(luò)的深度,它們將繼續(xù)在對抗性和邊角案例上犯錯。
「對于機器來說語言和智力的暗物質(zhì),可能就是常識?!?/span>
當(dāng)然,這里所說的暗物質(zhì),是對人類來說容易但對機器來說很難的東西。
LSTM之父Jürgen Schmidhuber
馬庫斯表示,我們現(xiàn)在可以從大型語言模型中獲取大量的知識,但實際上這種范式需要被轉(zhuǎn)變。因為語言模型實際上被「剝奪」了多種類型的輸入。
瑞士人工智能實驗室IDSIA主任、LSTM之父Jürgen Schmidhuber回應(yīng)稱,「我們今天討論的大部分內(nèi)容,至少在原則上,已經(jīng)在很多年前通過『通用神經(jīng)網(wǎng)絡(luò)』得到解決?!?這樣的系統(tǒng)「還不如人類」。
Schmidhuber表示,隨著計算能力每隔幾年變得更便宜,「舊理論」又回來了?!肝覀兛梢杂眠@些舊算法做很多當(dāng)時我們做不到的事情?!?/span>
接著,IBM研究員Francesca Rossi向Schmidhuber提出了一個問題:「我們怎么會看到仍然沒有我們想要的功能的系統(tǒng)?你怎么看?那些定義的技術(shù)仍然沒有進入當(dāng)前的系統(tǒng)?」
對此,Schmidhuber認為,目前主要是計算成本問題:
循環(huán)網(wǎng)絡(luò)可以運行任意算法,其中最美妙的方面之一是它還可以學(xué)習(xí)學(xué)習(xí)算法。最大的問題是它可以學(xué)習(xí)哪些算法?我們可能需要更好的算法。改進學(xué)習(xí)算法的選項。
第一個此類系統(tǒng)出現(xiàn)在1992年。我在1992年寫了第一篇論文。那時候我們對此幾乎無能為力。今天我們可以擁有數(shù)百萬和數(shù)十億個權(quán)重。
最近與我的學(xué)生進行的合作表明,這些舊概念在這里和那里進行了一些改進,突然間效果非常好,你可以學(xué)習(xí)比反向傳播更好的新學(xué)習(xí)算法。
英屬哥倫比亞大學(xué)副教授Jeff Clune
英屬哥倫比亞大學(xué)計算機科學(xué)副教授Jeff Clune討論的主題是「AI生成算法:通往AGI的最快路徑」。
Clune表示,今天人工智能走的是一條「人工道路」,這也就意味著各種學(xué)習(xí)規(guī)則和目標(biāo)函數(shù)等等都需要靠人來手動完成。
對此他認為,在今后的實踐中,人工設(shè)計的方法終究是要讓位于自動生成的。
隨后,Clune又提出了推動AI發(fā)展的「三大支柱」:元學(xué)習(xí)架構(gòu)、元學(xué)習(xí)算法,以及自動生成有效的學(xué)習(xí)環(huán)境和數(shù)據(jù)。
在此,Clune建議增加一個「第四支柱」,即「利用人類數(shù)據(jù)」。比如,在Minecraft環(huán)境里運行的模型,就可以通過學(xué)習(xí)人類玩游戲的視頻獲得「巨大的提升」。
最后,Clune預(yù)測,我們有30%的可能性在2030年實現(xiàn)AGI,而且還不需要新的范式。
值得注意的是,此處AGI被定義為「能夠完成50%以上的有經(jīng)濟價值的人類工作」。
總結(jié)一下
在討論的最后,馬庫斯讓所有參與者在30秒內(nèi)回答一個問題:「如果你能給學(xué)生一條建議,例如,現(xiàn)在我們最需要研究哪個人工智能的問題,或者如何為人工智能日益成為主流和中心的世界做好準(zhǔn)備,建議是什么?」
Choi稱:「我們必須處理AI與人類價值觀保持一致的問題,尤其是要強調(diào)多元化;我認為這是我們面臨的真正關(guān)鍵挑戰(zhàn)之一,更廣泛地應(yīng)對諸如魯棒性、泛化和可解釋性等挑戰(zhàn)?!?/span>
George從研究方向角度給出建議:「先確定好想從事規(guī)模化研究還是基礎(chǔ)研究,因為它們有不同的軌跡。」
Clune:「AGI即將到來。所以,對于開發(fā)AI的研究人員,我鼓勵你們從事基于工程、算法、元學(xué)習(xí)、端到端學(xué)習(xí)等技術(shù),因為這些最有可能被吸收進入我們正在創(chuàng)建的 AGI。對于非AI研究人員來說,最重要的可能是治理問題。例如,開發(fā)AGI時的規(guī)則是什么?規(guī)則由誰來決定?我們又該如何讓全世界的研究人員都遵循這套規(guī)則?」
馬庫斯在晚會結(jié)束時回憶起他在上一場辯論中的發(fā)言:「培養(yǎng)人工智能需要一村子的人?!?/span>
「我認為現(xiàn)在更是如此,」他說?!窤I以前是個孩子,現(xiàn)在有點像一個鬧騰的少年,還沒有完全具備成熟的判斷力?!?/span>
他總結(jié)說:「這一刻既令人興奮又危險。」