ChatGPT爆火,LeCun心態(tài)崩了!稱大語言模型是邪路,Meta模型3天慘遭下線
這兩天,圖靈獎得主Yann LeCun心態(tài)有些崩了。
自從ChatGPT大火之后,微軟憑著OpenAI腰板挺得很直。
被啪啪打臉的谷歌,也不說什么「聲譽風(fēng)險」了。
所有旗下的語言模型,無論是LaMDA,還是DeepMind的Sparrow,以及Apprentice Bard,是能加快的加快,能上架的上架。然后再狂投近4億美元給Anthropic,想趕快扶出自己的OpenAI。(微軟有的我也要)
然而,有一個人看著微軟谷歌各領(lǐng)風(fēng)騷,卻只能急得原地跳腳。
這個人就是Meta的首席AI科學(xué)家——Yann LeCun。
他在推特中十分意難平:「ChatGPT滿嘴胡謅,你們卻對它如此寬容,但我家的Galactica,才出來三天,就被你們罵到下線了?!?/span>
是誰酸到了,我不說
作為深度學(xué)習(xí)三巨頭之一、圖靈獎得主,LeCun的一舉一動,都十分引人注意。
1月27日,在Zoom的媒體和高管小型聚會上,LeCun對ChatGPT給出了一段令人驚訝的評價:「就底層技術(shù)而言,ChatGPT并不是多么了不得的創(chuàng)新。雖然在公眾眼中,它是革命性的,但是我們知道,它就是一個組合得很好的產(chǎn)品,僅此而已。」
「除了谷歌和Meta之外,還有六家初創(chuàng)公司,基本上都擁有非常相似的技術(shù)?!?/span>
另外他還說,ChatGPT用的Transformer架構(gòu)是谷歌提出的,而它用的自監(jiān)督方式,正是他自己提倡的,那時OpenAI還沒誕生呢。
此番言論一出,公眾嘩然。Open AI的CEO Sam Altman疑似因為這句話直接取關(guān)了LeCun。
隨后,LeCun繼續(xù)舌戰(zhàn)眾位推友。
1月28日,LeCun發(fā)推稱,「大型語言模型并沒有物理直覺,它們是基于文本訓(xùn)練的。如果它們能從龐大的聯(lián)想記憶中檢索到類似問題的答案,他們可能會答對物理直覺問題。但它們的回答,也可能是完全錯誤的?!?/span>
2月4日,LeCun再次發(fā)推,更加直白地表示「在通往人類級別AI的道路上,大型語言模型就是一條歪路」。
他這話一說,網(wǎng)友們可high了,紛紛沖到評論區(qū)留言。
LeCun隨后補充說:「依靠自動回歸和響應(yīng)預(yù)測下一個單詞的LLM是條歪路,因為它們既不能計劃也不能推理?!?/span>
「但是SSL預(yù)訓(xùn)練的Transformer是解決方案,因為它所處的現(xiàn)實系統(tǒng)有推理、計劃和學(xué)習(xí)的能力?!?/span>
LeCun舉了個有趣的例子:自己在參加播客節(jié)目時,展示過ChatGPT的回答,它看上去很有道理,卻錯得離譜。然而主持人在讀完ChatGPT的回答后,卻沒有第一時間發(fā)現(xiàn)它錯了。
LeCun對此解釋道:「我們的思維方式和對世界的感知讓我們能預(yù)想即將發(fā)生的事物。這是我們獲得常識的基礎(chǔ),而LLM并沒有這種能力。」
他再次發(fā)推稱:「在我們做出人類級別的AI之前,我們需要先做出貓貓/狗狗級別的AI。而現(xiàn)在我們甚至連這都做不到。我們?nèi)笔Я耸种匾臇|西。要知道,連一只寵物貓都比任何大型語言模型有更多的常識,以及對世界的理解?!?/span>
在留言區(qū),有網(wǎng)友毫不客氣地懟起LeCun:「你說得不對吧,本人親測,Galactica的錯誤率接近100%,而ChatGPT的錯誤率差不多在15%左右。 」
對于網(wǎng)友的痛擊,LeCun再次發(fā)推表明態(tài)度:「我從來沒說大型語言模型沒用,其實我們Meta也推出過Galactica模型,只是它不像ChatGPT那么好命罷了。ChatGPT滿嘴胡謅,你們卻對它如此寬容,但我家的Glacatica,才出來三天,就被你們罵到下線了?!?/span>
對此,評論區(qū)有網(wǎng)友諷刺道:「你可真棒棒啊。不如回實驗室去,把你說的東西給做出來?!?/span>
LeCun回復(fù):「今天可是周日,推特大辯論是我周末最愛的消遣了?!?/span>
自家的模型只活了3天
LeCun如此意難平,可以理解。
去年11月中旬,Meta的FAIR實驗室曾提出一個Galactica模型,它可以生成論文、生成百科詞條、回答問題、完成化學(xué)公式和蛋白質(zhì)序列的多模態(tài)任務(wù)等等。
Galactica生成的論文
LeCun也很開心地發(fā)推盛贊,稱這是一個基于學(xué)術(shù)文獻(xiàn)訓(xùn)練出的模型,給它一段話,它就能生成結(jié)構(gòu)完整的論文。
然而,由于Galactica滿嘴跑火車,它才上線短短三天,就被網(wǎng)友噴到下線。
LeCun轉(zhuǎn)發(fā)了Papers with Code的通知,像個「大怨種」一樣說道:「現(xiàn)在我們再也不能和Galactica一起愉快地玩耍了,你們開心了?」
雖然Galactica的demo才上線幾天,但當(dāng)時的用戶都感覺如臨大敵。
有網(wǎng)友警示道:想想這個「寫論文」神器會被學(xué)生們拿來做什么吧。
有網(wǎng)友表示,「Galactica這個模型的回答錯漏百出,充滿偏見,可是它的語氣卻十分自信權(quán)威。這太恐怖了?!?/span>
馬庫斯也表示,這種大型語言模型可能會被學(xué)生用來愚弄老師,非常令人擔(dān)心。
這熟悉的配方,熟悉的味道,真是令人感慨萬千:曾經(jīng)Galactica引起的恐慌和質(zhì)疑,不正是ChatGPT后來所經(jīng)歷嗎?
看著這段歷史的重演,卻有著截然不同的結(jié)局,LeCun這么酸,確實不能說是毫無來由。
那為什么ChatGPT就能在質(zhì)疑的聲浪中人氣愈發(fā)高漲,Galactica卻只能慘兮兮地被罵到下線呢?
首先,Galactica由Meta提出,大公司確實比OpenAI這樣的小初創(chuàng)公司,面臨更多的「聲譽風(fēng)險」。
另外,OpenAI的產(chǎn)品定位策略十分聰明,從ChatGTP的名字就可以看出,它主打的概念是聊天。
你可以和它聊知識、聊論文,但既然是「chat」,自然可以放飛一些,誰規(guī)定聊天一定要聊「準(zhǔn)確」「嚴(yán)謹(jǐn)」的東西呢?
但Glactica則不同,它的官方定義是:「這是一個用于科研的模型。」「這是一個受過人類科學(xué)知識訓(xùn)練的人工智能。您可以將它用作一個新界面,來訪問和操作我們對宇宙的知識?!?/span>
這當(dāng)然就給自己埋了大雷了。
雖然從技術(shù)層面來看,ChatGPT的確沒有太多創(chuàng)新,但是從產(chǎn)品運營的角度,OpenAI這一招,打得十分出色。
LLM為什么會滿嘴胡話?
所以,大語言模型為什么會滿嘴胡話呢?
在LeCun點贊的一篇文章中,作者做出了解釋:「我曾嘗試用ChatGPT來幫忙寫博客文章,但都以失敗告終。原因很簡單:ChatGPT經(jīng)常會整出很多虛假的『事實』」。
自然語言不等于知識
要知道,LLM是為了在與其他人類的對話中聽起來像一個人,而且它們也很好地實現(xiàn)了這個目標(biāo)。但問題是,聽起來自然與評估信息的準(zhǔn)確性是兩種完全不同的事情。
那么,這個問題該如何解決呢?
舉個例子,我們可以借助已經(jīng)對物理學(xué)理解進(jìn)行了編碼的機器——物理學(xué)引擎:
- 修改LLM,使它能識別出自己被問到的是一個關(guān)于物理的問題
- 將問題轉(zhuǎn)換為一個物理場景
- 用一個物理引擎來模擬這個場景
- 用文字描述該場景的輸出
而對于「假論文問題」,我們同樣也可以采用類似的修正。
也就是讓ChatGPT認(rèn)識到它被問到了關(guān)于科學(xué)論文的問題,或者它正在寫關(guān)于論文的東西,并強迫它在繼續(xù)之前查閱一個可信的數(shù)據(jù)庫。
但是請注意,如果真的這樣做了,那就意味著你把一種特定的額外「思維」嫁接到了LLM身上。而且還必須考慮到一大堆特殊的情況。這時,人類工程師知道真相來自哪里,但LLM卻不知道。
此外,隨著工程師們把越來越多的這樣的修復(fù)方法嫁接在一起,越來越明顯的是,LLM不是一種人工通用智能的形式。
不管人類的智能是什么,我們都知道它不僅僅是能說會道的能力。
人類語言的多種用途
為什么人類要互相交談,或為對方寫下東西?
其中一個目的是直接傳達(dá)事實信息,比如「我在商店」、「它沒有插電」等,但這遠(yuǎn)不是我們使用語言的唯一原因:
- 勸說、請求、命令、指示
- 傳達(dá)情感
- 娛樂他人(包括小說、笑話等)、自娛自樂
- 欺騙(撒謊)
- 建立關(guān)系(與朋友建立聯(lián)系,調(diào)情)
……
看得出來,人類交流的目的是非常多樣化的。而且,我們通常也不會在寫作的內(nèi)容中表明它的目的是什么,作者和讀者也對這些內(nèi)容的作用有著不同的認(rèn)知。
如果ChatGPT想要成為一個值得信賴的事實傳播者,它可能要學(xué)會如何區(qū)分它所訓(xùn)練的人類寫作的各種目的。
也就是說,它將不得不學(xué)會不認(rèn)真對待廢話,區(qū)分說服和宣傳與客觀分析,獨立判斷一個來源的可信度與它的受歡迎程度,等等。
即使對于人類,這也是一個非常困難的技巧。有研究表明,虛假信息在推特上的傳播速度是準(zhǔn)確信息的數(shù)倍——往往更具有煽動性、娛樂性或看起來很新穎。
那么問題來了,為什么生成式人工智能在計算機代碼上表現(xiàn)很好?為什么編寫功能代碼的準(zhǔn)確性不能轉(zhuǎn)化為傳達(dá)事實的準(zhǔn)確性?
對此可能的回答是,計算機代碼是功能性的,而不是交流性的。以正確的語法編寫某段代碼會自動執(zhí)行一些任務(wù),而編寫一個語法正確的句子卻不一定能達(dá)到任何目的。
此外,我們很容易將計算機代碼的訓(xùn)練語料庫限制在「好」的代碼上,也就是完美地執(zhí)行其預(yù)期目的的代碼。相比之下,要制作一個成功實現(xiàn)其目的的文本語料庫幾乎是不可能的。
因此,為了將自己訓(xùn)練成可信賴的事實傳播者,LLLM必須完成一項比訓(xùn)練自己提出功能性計算機代碼更難的任務(wù)。
雖然不知道對于工程師來說,建立一個能夠區(qū)分事實和廢話的LLM有多難,但這即便對于人類來說,都是一項困難的任務(wù)。
馬庫斯:世紀(jì)大和解
LeCun的一大串言論,讓大家紛紛疑惑:這不是馬庫斯會說的話嗎?
熱(chi)情(gua)的網(wǎng)友紛紛@馬庫斯,期待他對此事的銳評。
苦GPT久矣的馬庫斯自然喜出望外,立刻轉(zhuǎn)發(fā)LeCun的帖子,還評論道「100昏」。
馬庫斯還在自己的博客上發(fā)文,回顧自己與LeCun的「愛恨情仇」。
馬庫斯稱,自己與LeCun本是多年老友,因為嘴了Galactica幾句使得兩人交惡。
實際上,馬庫斯與LeCun的嘴仗打了好幾年了,可不是光只因為Galactica下線的事情。
與另外兩位圖靈獎得主Bengio和Hinton的相對低調(diào)不同,近幾年,LeCun在社交媒體上的活躍在AI圈子里也是出了名的。不少工作在掛了Arxiv之后就第一時間在推特上宣傳一波。
同樣高調(diào)的馬庫斯也是一向視推特為自己的主場,當(dāng)LeCun的宣傳和馬庫斯的看法產(chǎn)生矛盾時,雙方都不打算憋著。
在社交媒體上,兩人可以說達(dá)到了有架必吵的地步,彼此間話講的毫不客氣,見面說不定都能直接掐起來那種。
而且要說梁子,2019年LeCun與Hinton和Bengio一起獲得圖靈獎后,有一張合影,原本馬庫斯站在LeCun的邊上,但在LeCun分享的照片中,Marcus被無情地剪掉了。
然而,ChatGPT的誕生改變了一切。
ChatGPT爆火,Galactica三天后便落魄下架。在LeCun對LLM瘋狂輸出時,馬庫斯自然樂于看到此景。
正所謂敵人的敵人就是朋友,不論LeCun的言論是自家產(chǎn)品失敗后的大徹大悟,還是對競品頂流現(xiàn)狀的眼紅,馬庫斯都愿意添一把火。
馬庫斯認(rèn)為,他和LeCun達(dá)成一致的,不僅是關(guān)于LLM的炒作和局限性。他們都認(rèn)為Cicero應(yīng)該得到更多的關(guān)注。
最后,馬庫斯@了懂的都懂的那個人,并說「該給家人們福利了」。
可以說,LeCun在推特上掀起的罵戰(zhàn),不僅讓馬庫斯的反GPT軍團多了一員猛將,還給了兩人握手言和的契機。
這么看來,或許馬庫斯才是最終贏家。