“CNN之父” Yann LeCun:人工智能沒腦子,智商不如一條狗
大數(shù)據(jù)文摘出品
被譽(yù)為深度學(xué)習(xí)三巨頭之一的Yann LeCun一直是樂天派,他不止在一個場合表達(dá)他對人工智能(AI)發(fā)展的樂觀預(yù)期。例如:“AI是人類智慧的放大器,AI越強(qiáng)大,人類就越聰明,更快樂和更有經(jīng)濟(jì)效率?!?/p>
今日,CNBC有篇文章披露出了Yann LeCun對AI能力現(xiàn)狀的定義:它還不如一條狗聰明。至于原因,LeCun談到:
那些系統(tǒng)只在文本上訓(xùn)練,它們對現(xiàn)實世界的基本現(xiàn)實沒有任何理解,然而大部分人類知識與語言無關(guān)……所以大部分人類經(jīng)驗AI是學(xué)不會的?!?/p>
為了論證 LeCun的觀點(diǎn),他舉了個例子,現(xiàn)在的AI系統(tǒng)可以通過美國的律師資格考試,然而,AI不會用/裝(load)洗碗機(jī),一個10歲的小孩卻10分鐘就能搞定。
更深層次的原因,是AI無法復(fù)制人類能力,例如五月大的嬰兒看到水上漂浮物體可能無感,但九月大的嬰兒可能會表現(xiàn)出震驚,因為他會意識到物體不應(yīng)該漂浮。
“不知道如何用機(jī)器復(fù)制這種能力。在我們能做到這一點(diǎn)之前,AI不會擁有人類水平的智能,也不會擁有狗或貓水平的智能。”LeCun如此解釋。
CNN之父的人工智能觀點(diǎn)
在去年的十月份,Yann LeCun在接采訪中提到,“今天的人工智能方法永遠(yuǎn)不會帶來真正的智能。所有人工智能都面臨某些基本問題,特別是如何衡量信息。”
而最近公開的演講中,更是強(qiáng)烈批判GPT大模型所使用的方法,即根據(jù)概率生成自回歸的大模型,根本無法破除幻覺難題。
此前, LeCun提出目前AI研究面臨的三大挑戰(zhàn),而這些挑戰(zhàn)也是GPT所使用方法無法解決的。
- AI如何學(xué)會表征世界,學(xué)習(xí)預(yù)測,并學(xué)習(xí)主要通過觀察來行動?
- AI如何才能以與基于梯度的學(xué)習(xí)相兼容的方式進(jìn)行推理和計劃?
- AI如何學(xué)習(xí)在多個抽象層次和多個時間尺度上以層次化的方式表示感知和行動規(guī)劃?
針對上述問題,LeCun提出了兩個解決方向。一是運(yùn)用自監(jiān)督學(xué)習(xí)方法,減少系統(tǒng)學(xué)習(xí)所需的數(shù)據(jù)量,這本質(zhì)上是通過預(yù)訓(xùn)練來獲得更好的性能。二是進(jìn)行端到端的訓(xùn)練,設(shè)計一些能夠處理邊緣情況的系統(tǒng),通過強(qiáng)化控制來解決問題。
圖源:北京智源大會
更為具體,他提出世界模型,給人工智能的下一步,提供解決方案。在他的設(shè)想中,世界模型為一個不光是在神經(jīng)水平上模仿人腦的模型,而是在認(rèn)知模塊上也完全貼合人腦分區(qū)的模型。它與大語言模型最大的差別在于可以有規(guī)劃和預(yù)測能力(世界模型),成本核算能力(成本模塊)。
通過世界模型,它可以真正的理解這個世界,并預(yù)測和規(guī)劃未來。通過成本核算模塊,結(jié)合一個簡單的需求(一定按照最節(jié)約行動成本的邏輯去規(guī)劃未來),它就可以杜絕一切潛在的毒害和不可靠性。
至于如何實現(xiàn)世界模型,LeCun認(rèn)為可以采用自監(jiān)督模型去訓(xùn)練,比如一定要建立多層級的思維模式........
安全or危險?AI發(fā)展的兩種預(yù)見
和LeCun同年“摘取”圖靈獎得主盛譽(yù)的Geoffrey Hinton卻有著不一樣的觀點(diǎn):
“這些超級智能出現(xiàn)的時間可能比我過去認(rèn)為的要早得多......超級智能顯然會學(xué)得非常擅長欺騙人,可以讓人們實際執(zhí)行它喜歡的任何動作。這非??膳拢 薄?/p>
從最近一些領(lǐng)域大咖的表態(tài)來看,似乎站臺Hinton,認(rèn)為AI危險的人數(shù)更多一些。例如特斯拉的頭頭馬斯克表示,人工智能是未來文明面臨的最大危險之一。
而在今年五月份,大量學(xué)者、專家簽名公開信《AI 風(fēng)險聲明》,信中警告稱如果對先進(jìn)人工智能的發(fā)展監(jiān)管不當(dāng),可能會對人類構(gòu)成生存威脅。
這封公開信與以往不同,因為其中許多重要簽署者在 AI 實驗室、大型科技公司擔(dān)任要職。其中包括圖靈獎得主 Geoffrey Hinton、Yoshua Bengio,OpenAI 首席執(zhí)行官 Sam Altman,Google DeepMind 聯(lián)合創(chuàng)始人兼 CEO Demis Hassabis,微軟首席技術(shù)官 Kevin Scott,谷歌副總裁 James Manyika,OpenAI 首席科學(xué)家 Ilya Sutskever,GAN 之父 Ian Goodfellow 等都已簽名。
而Hinton更是離職谷歌,表達(dá)畢生的后悔。他對造就了如今AI技術(shù)繁榮的神經(jīng)網(wǎng)絡(luò),表示抱歉。
參考鏈接:
https://new.qq.com/rain/a/20230612A08QO700
https://www.cnbc.com/2023/06/15/ai-is-not-even-at-dog-level-intelligence-yet-meta-ai-chief.html
https://mp.weixin.qq.com/s/LDTpMoDaIf3tTATxWeaSgg
https://mp.weixin.qq.com/s/GxEfoD06P1UPIIbFTbTgEg