自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

ChatGPT爆火,LeCun心態(tài)崩了!稱大語言模型是邪路,Meta模型3天慘遭下線

人工智能 新聞
最近,LeCun連續(xù)發(fā)推,舌戰(zhàn)各位推友,瘋狂diss大語言模型是邪路,也為自家匆忙下線的Galactica酸了一把ChatGPT。

這兩天,圖靈獎得主Yann LeCun心態(tài)有些崩了。

自從ChatGPT大火之后,微軟憑著OpenAI腰板挺得很直。

被啪啪打臉的谷歌,也不說什么「聲譽風(fēng)險」了。

所有旗下的語言模型,無論是LaMDA,還是DeepMind的Sparrow,以及Apprentice Bard,是能加快的加快,能上架的上架。然后再狂投近4億美元給Anthropic,想趕快扶出自己的OpenAI。(微軟有的我也要)

然而,有一個人看著微軟谷歌各領(lǐng)風(fēng)騷,卻只能急得原地跳腳。

這個人就是Meta的首席AI科學(xué)家——Yann LeCun。

他在推特中十分意難平:「ChatGPT滿嘴胡謅,你們卻對它如此寬容,但我家的Galactica,才出來三天,就被你們罵到下線了?!?/span>

圖片

是誰酸到了,我不說

作為深度學(xué)習(xí)三巨頭之一、圖靈獎得主,LeCun的一舉一動,都十分引人注意。

1月27日,在Zoom的媒體和高管小型聚會上,LeCun對ChatGPT給出了一段令人驚訝的評價:「就底層技術(shù)而言,ChatGPT并不是多么了不得的創(chuàng)新。雖然在公眾眼中,它是革命性的,但是我們知道,它就是一個組合得很好的產(chǎn)品,僅此而已。」

圖片

「除了谷歌和Meta之外,還有六家初創(chuàng)公司,基本上都擁有非常相似的技術(shù)?!?/span>

另外他還說,ChatGPT用的Transformer架構(gòu)是谷歌提出的,而它用的自監(jiān)督方式,正是他自己提倡的,那時OpenAI還沒誕生呢。

此番言論一出,公眾嘩然。Open AI的CEO Sam Altman疑似因為這句話直接取關(guān)了LeCun。

圖片

隨后,LeCun繼續(xù)舌戰(zhàn)眾位推友。

1月28日,LeCun發(fā)推稱,「大型語言模型并沒有物理直覺,它們是基于文本訓(xùn)練的。如果它們能從龐大的聯(lián)想記憶中檢索到類似問題的答案,他們可能會答對物理直覺問題。但它們的回答,也可能是完全錯誤的?!?/span>

圖片

2月4日,LeCun再次發(fā)推,更加直白地表示「在通往人類級別AI的道路上,大型語言模型就是一條歪路」。

圖片

他這話一說,網(wǎng)友們可high了,紛紛沖到評論區(qū)留言。

LeCun隨后補充說:「依靠自動回歸和響應(yīng)預(yù)測下一個單詞的LLM是條歪路,因為它們既不能計劃也不能推理?!?/span>

「但是SSL預(yù)訓(xùn)練的Transformer是解決方案,因為它所處的現(xiàn)實系統(tǒng)有推理、計劃和學(xué)習(xí)的能力?!?/span>

圖片

LeCun舉了個有趣的例子:自己在參加播客節(jié)目時,展示過ChatGPT的回答,它看上去很有道理,卻錯得離譜。然而主持人在讀完ChatGPT的回答后,卻沒有第一時間發(fā)現(xiàn)它錯了。

LeCun對此解釋道:「我們的思維方式和對世界的感知讓我們能預(yù)想即將發(fā)生的事物。這是我們獲得常識的基礎(chǔ),而LLM并沒有這種能力。」

他再次發(fā)推稱:「在我們做出人類級別的AI之前,我們需要先做出貓貓/狗狗級別的AI。而現(xiàn)在我們甚至連這都做不到。我們?nèi)笔Я耸种匾臇|西。要知道,連一只寵物貓都比任何大型語言模型有更多的常識,以及對世界的理解?!?/span>

圖片

在留言區(qū),有網(wǎng)友毫不客氣地懟起LeCun:「你說得不對吧,本人親測,Galactica的錯誤率接近100%,而ChatGPT的錯誤率差不多在15%左右。 」

圖片

對于網(wǎng)友的痛擊,LeCun再次發(fā)推表明態(tài)度:「我從來沒說大型語言模型沒用,其實我們Meta也推出過Galactica模型,只是它不像ChatGPT那么好命罷了。ChatGPT滿嘴胡謅,你們卻對它如此寬容,但我家的Glacatica,才出來三天,就被你們罵到下線了?!?/span>

圖片

對此,評論區(qū)有網(wǎng)友諷刺道:「你可真棒棒啊。不如回實驗室去,把你說的東西給做出來?!?/span>

LeCun回復(fù):「今天可是周日,推特大辯論是我周末最愛的消遣了?!?/span>

圖片

自家的模型只活了3天

LeCun如此意難平,可以理解。

去年11月中旬,Meta的FAIR實驗室曾提出一個Galactica模型,它可以生成論文、生成百科詞條、回答問題、完成化學(xué)公式和蛋白質(zhì)序列的多模態(tài)任務(wù)等等。

圖片

Galactica生成的論文

LeCun也很開心地發(fā)推盛贊,稱這是一個基于學(xué)術(shù)文獻(xiàn)訓(xùn)練出的模型,給它一段話,它就能生成結(jié)構(gòu)完整的論文。

圖片

然而,由于Galactica滿嘴跑火車,它才上線短短三天,就被網(wǎng)友噴到下線。

LeCun轉(zhuǎn)發(fā)了Papers with Code的通知,像個「大怨種」一樣說道:「現(xiàn)在我們再也不能和Galactica一起愉快地玩耍了,你們開心了?」

圖片

雖然Galactica的demo才上線幾天,但當(dāng)時的用戶都感覺如臨大敵。

有網(wǎng)友警示道:想想這個「寫論文」神器會被學(xué)生們拿來做什么吧。

圖片

有網(wǎng)友表示,「Galactica這個模型的回答錯漏百出,充滿偏見,可是它的語氣卻十分自信權(quán)威。這太恐怖了?!?/span>

圖片

馬庫斯也表示,這種大型語言模型可能會被學(xué)生用來愚弄老師,非常令人擔(dān)心。

這熟悉的配方,熟悉的味道,真是令人感慨萬千:曾經(jīng)Galactica引起的恐慌和質(zhì)疑,不正是ChatGPT后來所經(jīng)歷嗎?

看著這段歷史的重演,卻有著截然不同的結(jié)局,LeCun這么酸,確實不能說是毫無來由。

那為什么ChatGPT就能在質(zhì)疑的聲浪中人氣愈發(fā)高漲,Galactica卻只能慘兮兮地被罵到下線呢?

首先,Galactica由Meta提出,大公司確實比OpenAI這樣的小初創(chuàng)公司,面臨更多的「聲譽風(fēng)險」。

另外,OpenAI的產(chǎn)品定位策略十分聰明,從ChatGTP的名字就可以看出,它主打的概念是聊天。

你可以和它聊知識、聊論文,但既然是「chat」,自然可以放飛一些,誰規(guī)定聊天一定要聊「準(zhǔn)確」「嚴(yán)謹(jǐn)」的東西呢?

圖片

但Glactica則不同,它的官方定義是:「這是一個用于科研的模型。」「這是一個受過人類科學(xué)知識訓(xùn)練的人工智能。您可以將它用作一個新界面,來訪問和操作我們對宇宙的知識?!?/span>

這當(dāng)然就給自己埋了大雷了。

雖然從技術(shù)層面來看,ChatGPT的確沒有太多創(chuàng)新,但是從產(chǎn)品運營的角度,OpenAI這一招,打得十分出色。

LLM為什么會滿嘴胡話?

所以,大語言模型為什么會滿嘴胡話呢?

在LeCun點贊的一篇文章中,作者做出了解釋:「我曾嘗試用ChatGPT來幫忙寫博客文章,但都以失敗告終。原因很簡單:ChatGPT經(jīng)常會整出很多虛假的『事實』」。

圖片

自然語言不等于知識

要知道,LLM是為了在與其他人類的對話中聽起來像一個人,而且它們也很好地實現(xiàn)了這個目標(biāo)。但問題是,聽起來自然與評估信息的準(zhǔn)確性是兩種完全不同的事情。

那么,這個問題該如何解決呢?

舉個例子,我們可以借助已經(jīng)對物理學(xué)理解進(jìn)行了編碼的機器——物理學(xué)引擎:

  • 修改LLM,使它能識別出自己被問到的是一個關(guān)于物理的問題
  • 將問題轉(zhuǎn)換為一個物理場景
  • 用一個物理引擎來模擬這個場景
  • 用文字描述該場景的輸出

而對于「假論文問題」,我們同樣也可以采用類似的修正。

也就是讓ChatGPT認(rèn)識到它被問到了關(guān)于科學(xué)論文的問題,或者它正在寫關(guān)于論文的東西,并強迫它在繼續(xù)之前查閱一個可信的數(shù)據(jù)庫。

但是請注意,如果真的這樣做了,那就意味著你把一種特定的額外「思維」嫁接到了LLM身上。而且還必須考慮到一大堆特殊的情況。這時,人類工程師知道真相來自哪里,但LLM卻不知道。

此外,隨著工程師們把越來越多的這樣的修復(fù)方法嫁接在一起,越來越明顯的是,LLM不是一種人工通用智能的形式。

不管人類的智能是什么,我們都知道它不僅僅是能說會道的能力。

人類語言的多種用途

為什么人類要互相交談,或為對方寫下東西?

其中一個目的是直接傳達(dá)事實信息,比如「我在商店」、「它沒有插電」等,但這遠(yuǎn)不是我們使用語言的唯一原因:

  • 勸說、請求、命令、指示
  • 傳達(dá)情感
  • 娛樂他人(包括小說、笑話等)、自娛自樂
  • 欺騙(撒謊)
  • 建立關(guān)系(與朋友建立聯(lián)系,調(diào)情)

……

看得出來,人類交流的目的是非常多樣化的。而且,我們通常也不會在寫作的內(nèi)容中表明它的目的是什么,作者和讀者也對這些內(nèi)容的作用有著不同的認(rèn)知。

如果ChatGPT想要成為一個值得信賴的事實傳播者,它可能要學(xué)會如何區(qū)分它所訓(xùn)練的人類寫作的各種目的。

也就是說,它將不得不學(xué)會不認(rèn)真對待廢話,區(qū)分說服和宣傳與客觀分析,獨立判斷一個來源的可信度與它的受歡迎程度,等等。

即使對于人類,這也是一個非常困難的技巧。有研究表明,虛假信息在推特上的傳播速度是準(zhǔn)確信息的數(shù)倍——往往更具有煽動性、娛樂性或看起來很新穎。

那么問題來了,為什么生成式人工智能在計算機代碼上表現(xiàn)很好?為什么編寫功能代碼的準(zhǔn)確性不能轉(zhuǎn)化為傳達(dá)事實的準(zhǔn)確性?

圖片

對此可能的回答是,計算機代碼是功能性的,而不是交流性的。以正確的語法編寫某段代碼會自動執(zhí)行一些任務(wù),而編寫一個語法正確的句子卻不一定能達(dá)到任何目的。

此外,我們很容易將計算機代碼的訓(xùn)練語料庫限制在「好」的代碼上,也就是完美地執(zhí)行其預(yù)期目的的代碼。相比之下,要制作一個成功實現(xiàn)其目的的文本語料庫幾乎是不可能的。

因此,為了將自己訓(xùn)練成可信賴的事實傳播者,LLLM必須完成一項比訓(xùn)練自己提出功能性計算機代碼更難的任務(wù)。

雖然不知道對于工程師來說,建立一個能夠區(qū)分事實和廢話的LLM有多難,但這即便對于人類來說,都是一項困難的任務(wù)。

馬庫斯:世紀(jì)大和解

LeCun的一大串言論,讓大家紛紛疑惑:這不是馬庫斯會說的話嗎?

圖片

熱(chi)情(gua)的網(wǎng)友紛紛@馬庫斯,期待他對此事的銳評。

圖片

苦GPT久矣的馬庫斯自然喜出望外,立刻轉(zhuǎn)發(fā)LeCun的帖子,還評論道「100昏」。

圖片

馬庫斯還在自己的博客上發(fā)文,回顧自己與LeCun的「愛恨情仇」。

圖片

馬庫斯稱,自己與LeCun本是多年老友,因為嘴了Galactica幾句使得兩人交惡。

實際上,馬庫斯與LeCun的嘴仗打了好幾年了,可不是光只因為Galactica下線的事情。

與另外兩位圖靈獎得主Bengio和Hinton的相對低調(diào)不同,近幾年,LeCun在社交媒體上的活躍在AI圈子里也是出了名的。不少工作在掛了Arxiv之后就第一時間在推特上宣傳一波。

同樣高調(diào)的馬庫斯也是一向視推特為自己的主場,當(dāng)LeCun的宣傳和馬庫斯的看法產(chǎn)生矛盾時,雙方都不打算憋著。

在社交媒體上,兩人可以說達(dá)到了有架必吵的地步,彼此間話講的毫不客氣,見面說不定都能直接掐起來那種。

而且要說梁子,2019年LeCun與Hinton和Bengio一起獲得圖靈獎后,有一張合影,原本馬庫斯站在LeCun的邊上,但在LeCun分享的照片中,Marcus被無情地剪掉了。

圖片

然而,ChatGPT的誕生改變了一切。

ChatGPT爆火,Galactica三天后便落魄下架。在LeCun對LLM瘋狂輸出時,馬庫斯自然樂于看到此景。

正所謂敵人的敵人就是朋友,不論LeCun的言論是自家產(chǎn)品失敗后的大徹大悟,還是對競品頂流現(xiàn)狀的眼紅,馬庫斯都愿意添一把火。

馬庫斯認(rèn)為,他和LeCun達(dá)成一致的,不僅是關(guān)于LLM的炒作和局限性。他們都認(rèn)為Cicero應(yīng)該得到更多的關(guān)注。

最后,馬庫斯@了懂的都懂的那個人,并說「該給家人們福利了」。

圖片

可以說,LeCun在推特上掀起的罵戰(zhàn),不僅讓馬庫斯的反GPT軍團多了一員猛將,還給了兩人握手言和的契機。

這么看來,或許馬庫斯才是最終贏家。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-02-14 14:54:09

模型AI

2023-02-14 09:28:35

2024-06-24 17:45:16

2023-06-16 13:26:29

AI模型

2023-01-02 13:33:25

2023-05-12 13:14:59

ChatGPTAI工具

2023-04-27 13:46:08

語言模型ChatGPT人工智能

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2022-12-07 13:12:14

ChatGPT模型代碼

2022-08-01 10:15:06

AI模型Meta

2023-05-25 13:59:12

ChatGPT模型

2023-05-26 13:22:49

2023-08-10 08:46:52

2023-03-07 13:31:45

模型泄漏

2023-02-22 15:06:44

AI智能

2024-07-19 11:50:28

2023-04-20 17:47:57

模型開源

2023-09-06 12:11:21

ChatGPT語言模型

2024-08-05 10:20:00

LLM數(shù)據(jù)

2022-09-30 15:35:43

AI視頻
點贊
收藏

51CTO技術(shù)棧公眾號