自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

對齊馬斯克,楊立昆稱AGI十年內(nèi)將實(shí)現(xiàn)!談未來:AI不會讓人失業(yè),人類總有解決不完的問題;想進(jìn)入AI領(lǐng)域創(chuàng)業(yè),建議先卷個博士

原創(chuàng) 精選
人工智能
楊立昆做客《WTF人物》,與印度企業(yè)家 Nikhil Kamath 談?wù)撚嘘P(guān)人工智能的一切。在一個半小時的訪談中,楊立昆的博學(xué)和謙遜讓人印象深刻。為了向提問者解釋“神經(jīng)網(wǎng)絡(luò)語言模型”,他可以從香農(nóng)的信息論講起,把 AI 晦澀的知識講得深入淺出。

整理 | 伊風(fēng)

出品 | 51CTO技術(shù)棧(微信號:blog51cto)

楊立昆做客《WTF人物》,與印度企業(yè)家 Nikhil Kamath 談?wù)撚嘘P(guān)人工智能的一切。

在一個半小時的訪談中,楊立昆的博學(xué)和謙遜讓人印象深刻。為了向提問者解釋“神經(jīng)網(wǎng)絡(luò)語言模型”,他可以從香農(nóng)的信息論講起,把 AI 晦澀的知識講得深入淺出。

圖片圖片

談到 AI 教父,他直言不喜歡這個像黑手黨一般的稱呼,但他希望能成為學(xué)界的英雄。他更提到,因?yàn)樗鲺r明的公開言論,很多人認(rèn)為他是白癡。

這不得不提到楊立昆對 Transformer 模型的反對態(tài)度。他不止一次地提到 ChatGPT 等 AI 前沿的智力水平仍然遠(yuǎn)不及家里的寵物貓。在訪談中,他做出了更詳細(xì)的說明。同時認(rèn)為即使是目前大熱的 o1 ,也只是在進(jìn)行一些“非?;A(chǔ)的推理,方法效率非常低下,所以并不是理想的解決方案?!彼€分享了自己的研究方向,團(tuán)隊(duì)探索了5年之久的“聯(lián)合嵌入預(yù)測架構(gòu)”及其原理。

談到未來,我們發(fā)現(xiàn)楊立昆對AGI的實(shí)現(xiàn)預(yù)測提速了10倍。5月底的一場圓桌,他認(rèn)為AGI將在幾十年后到來。(全文:我們應(yīng)該恐懼AGI?楊立昆等語出驚人:這里有兩個悖論)然而,經(jīng)歷了今年的探索和技術(shù)改進(jìn)后,他坦言目前的預(yù)測是“在5到10年中”,已經(jīng)和馬斯克、奧特曼等人的預(yù)測差別不大。

圖片圖片

同時,楊立昆強(qiáng)烈安利 AI 創(chuàng)業(yè)者去卷卷學(xué)歷,他解釋說,博士不僅有利于個人理解什么是真正的創(chuàng)新,而且擁有學(xué)術(shù)成果也會讓融資變得更容易。

最后,他提到,“我們不會沒有工作可做,因?yàn)槿祟惪傆薪鉀Q不完的問題”。未來的人類智能應(yīng)該要掌握三者的結(jié)合:已經(jīng)掌握的技能和解決問題的經(jīng)驗(yàn)、通過少量嘗試快速學(xué)習(xí)新技能的能力,以及面對新問題時無需學(xué)習(xí)新技能就能解決問題的能力。

以下是經(jīng)整理的博客精華內(nèi)容,enjoy:

楊立昆大佬在博客中詳細(xì)探討了:反向傳播算法、強(qiáng)化學(xué)習(xí)領(lǐng)域的現(xiàn)狀、卷積神經(jīng)網(wǎng)絡(luò)等內(nèi)容,感興趣的朋友可以移步這期節(jié)目。

https://www.youtube.com/watch?v=JAgHUDhaTU0

1.談AI教父頭銜:科學(xué)界也可以有英雄

主持人 Nikhil Kamath :當(dāng)有人稱你為“人工智能之父”時,你的感受如何?

LeCun :你怎么看這個稱號?說實(shí)話,我不是特別喜歡這個稱呼。我住在新澤西,而在新澤西,“教父”這個詞意味著你是這里黑幫的成員。

科學(xué)從來都不是一種個人追求,而是通過多個人的思想碰撞來取得進(jìn)步的。你會提出假設(shè),然后通過驗(yàn)證你的假設(shè)是否正確來推進(jìn)科學(xué)。例如,驗(yàn)證你的想法、你的心智模型是否有效,或者通過理論研究等方式。這不是一種孤立的活動??茖W(xué)的進(jìn)步總是許多人共同努力的結(jié)果。然而,由于世界運(yùn)作的方式,我們往往只記住少數(shù)人。我認(rèn)為很多功勞應(yīng)該歸功于更多的人,但我們?nèi)狈楦嗳藲w功的記憶能力。

主持人 Nikhil Kamath :你覺得在學(xué)術(shù)界和研究領(lǐng)域成為“英雄”是否和在體育或創(chuàng)業(yè)領(lǐng)域成為英雄類似?還是說學(xué)術(shù)領(lǐng)域更難?

LeCun :我很高興科學(xué)界也可以有“英雄”的存在。

在某種程度上,一些其他科學(xué)家也算是小有名氣的名人。我認(rèn)為,部分名聲來自科學(xué)成果,但坦白說,有很多作出重要科學(xué)貢獻(xiàn)的人完全默默無聞,這讓我有點(diǎn)難過。我覺得那些在科學(xué)和技術(shù)領(lǐng)域出名的人,往往不僅是因?yàn)樗麄兊目茖W(xué)成就,也因?yàn)樗麄兊墓娏觥?/span>

有一點(diǎn)可能讓我和一些更低調(diào)的科學(xué)家不同的是,我在社交網(wǎng)絡(luò)上非常活躍,經(jīng)常發(fā)表公眾演講,并對技術(shù)問題和一定程度上的政策問題表達(dá)強(qiáng)烈的觀點(diǎn)。這可能導(dǎo)致我的名聲在某些圈子里很高,但在另一些圈子里,我被視為一個徹底的蠢貨。

2.什么是人工智能?“我們總是忽略智能還有其他方面”

主持人 Nikhil Kamath :我們是否可以從“什么是人工智能”開始?

LeCun :好的,這是個好問題。什么是“智能”?在人工智能的歷史中,我認(rèn)為“什么是人工智能”這個問題有點(diǎn)像盲人摸象的故事。智能有非常不同的方面,而在人工智能的發(fā)展歷程中,人們通常只關(guān)注某一種關(guān)于智能的視角,而忽略了其他方面。

20世紀(jì)50年代,人工智能的早期研究重點(diǎn)是將智能視為推理能力。那么,我們?nèi)绾芜M(jìn)行邏輯推理?如何尋找新問題的解決方案?在50年代,人們意識到可以通過一個問題來描述這種情景。假設(shè)我們有一個問題,這已經(jīng)成為人工智能或計(jì)算機(jī)科學(xué)中的經(jīng)典問題。

主持人 Nikhil Kamath :找到解決方案確實(shí)與智能有關(guān)。如果你問我什么是智能,我可能會因?yàn)殡y以用一句話定義而感到無言以對。

LeCun :是的,這就引出了另一個問題。

主持人 Nikhil Kamath :你能解釋一下“盲人摸象”的比喻嗎?

LeCun :當(dāng)然。你知道盲人摸象的故事吧?第一個盲人摸到大象的側(cè)面,說這像是一堵墻;另一個摸到大象的腿,說這像一棵樹;還有一個摸到象鼻,說這像一根管子。沒有人能夠完全理解整體是什么樣子,只能從不同的角度感知它。

因此,將智能視為為特定問題尋找解決方案的這一面只是智能的一個小方面。它是智能的一個部分,但不是全部。然而,在人工智能發(fā)展的初期,有一個分支基本上只關(guān)注這個方面。從50年代開始,這個分支在90年代之前一直占主導(dǎo)地位,認(rèn)為人工智能就是為計(jì)劃或問題尋找解決方案。

比如說,如果你想把一些物體堆疊起來,而有些物體比其他物體大,你需要組織堆疊這些物體的順序。這就是計(jì)劃問題。或者說,如果你有一個機(jī)器人手臂,需要抓取一個物體,但前面有障礙物,你必須為手臂規(guī)劃一條抓取物體的路徑。這些都是規(guī)劃問題,它們是為問題尋找解決方案的一部分。但這種人工智能的分支,從50年代開始主導(dǎo)直到90年代,完全忽略了諸如感知的問題,比如我們?nèi)绾卫斫馐澜纾?/span>

我們?nèi)绾巫R別一個物體?我們?nèi)绾螌⒁粋€物體從背景中分離出來以便識別?以及我們?nèi)绾尾灰赃壿嫽蛩阉鞯姆绞剿伎?,而是用更抽象的方式思考?這些方面在當(dāng)時基本上被忽視了。

但是在20世紀(jì)50年代,還出現(xiàn)了人工智能的另一個分支,這一分支提出:“讓我們嘗試重現(xiàn)動物和人類大腦中體現(xiàn)的智能機(jī)制?!痹趧游锖腿祟惖拇竽X中,基本機(jī)制是大腦會自我組織和學(xué)習(xí),它們并非天生就聰明。智能是一種由大量簡單元素(彼此連接的網(wǎng)絡(luò))中涌現(xiàn)的現(xiàn)象。

因此,在50年代,這些研究者開始發(fā)現(xiàn),智能和記憶來源于神經(jīng)元之間連接強(qiáng)度的變化(以一種簡化的方式來說)。大腦學(xué)習(xí)的方式是通過修改神經(jīng)元之間連接的強(qiáng)度來實(shí)現(xiàn)的。于是,有些人提出了理論模型,甚至設(shè)計(jì)了能夠重現(xiàn)這一現(xiàn)象的電子電路——也就是探索“我們是否可以構(gòu)建智能”。

3.Transformer 帶不來AGI,未來需要突破LLM的局限

主持人 Nikhil Kamath :什么是自監(jiān)督學(xué)習(xí)?

LeCun :自監(jiān)督學(xué)習(xí)是一種方法,其中輸入和輸出沒有明確的區(qū)分。兩者實(shí)際上是同一件事情。如果輸入是一個圖像,你訓(xùn)練自監(jiān)督學(xué)習(xí)系統(tǒng)的方法是通過某種方式破壞或轉(zhuǎn)換圖像,然后讓系統(tǒng)從損壞或轉(zhuǎn)換后的版本中恢復(fù)原始圖像。

與其讓人類去處理數(shù)百萬張圖像并告訴你“這是貓、這是狗、這是桌子”,你只需展示一張貓、狗或桌子的圖像,然后對其進(jìn)行破壞(部分修改,可能是改變顏色或其他形式),接著讓系統(tǒng)從被破壞的圖像中恢復(fù)原始圖像。這就是一種特定形式的自監(jiān)督學(xué)習(xí)。這種方法在自然語言理解方面非常成功。

像聊天機(jī)器人或大型語言模型(LLMs)就是自監(jiān)督學(xué)習(xí)的一個特殊案例。在這種情況下,你訓(xùn)練一個系統(tǒng)來預(yù)測一個單詞,但它只能看前面的單詞(位于左邊的單詞)。這需要以一種特定的方式構(gòu)建神經(jīng)網(wǎng)絡(luò),使預(yù)測某個單詞的連接只能查看前面的單詞。因此,你不需要破壞輸入。只需展示輸入,通過系統(tǒng)的結(jié)構(gòu),系統(tǒng)只能從上下文中被訓(xùn)練來預(yù)測下一個單詞。

主持人 Nikhil Kamath : 所以,Transformer 對文本效果最佳,但對圖片和視頻并不適用。

LeCun :這是因?yàn)槲谋局锌赡馨l(fā)生的事情是有限的,對吧?詞典中的詞匯數(shù)量是有限的。因此,如果你可以將信號離散化,就可以使用這些自回歸預(yù)測系統(tǒng)。

主要問題在于,你永遠(yuǎn)無法做出完全準(zhǔn)確的預(yù)測。所以系統(tǒng)需要學(xué)習(xí)某種概率分布,或者至少生成不同潛在輸出的不同評分。如果可能的結(jié)果是有限的,比如語言,你可以輸出一個概率列表。但如果你想預(yù)測視頻中將發(fā)生什么,視頻幀的可能數(shù)量基本上是無限的,對吧?

比如說想象一下像素,每一幀可能包含1000個像素,每個像素都有顏色值,你需要生成3個值,這就意味著你要生成300萬的值。而我們還不知道如何表示覆蓋所有可能圖像(包含300萬個像素)的概率分布。

主持人 Nikhil Kamath :但這正是大家非常興奮的地方。

LeCun :是的,這也是很多人認(rèn)為 AI 下一個挑戰(zhàn)的領(lǐng)域。我們需要讓系統(tǒng)通過觀看視頻來學(xué)習(xí)世界的運(yùn)作方式。

主持人 Nikhil Kamath :如果你通過視頻和圖片學(xué)習(xí),這是下一階段的發(fā)展方向,那它在整個圖景中屬于哪個部分?它屬于今天提到的 LLMs 的范疇嗎?

LeCun :不,這完全不同于 LLMs。這也是為什么我一直很直言地表示,LLMs 并不是通向人類級別智能的路徑。LLMs 適用于離散的世界,但它們不適用于連續(xù)的高維世界,比如視頻。這也是為什么 LLMs 無法理解物理世界,無法以其現(xiàn)有形式真正理解現(xiàn)實(shí)世界的原因。

LLMs 的語言處理能力非常出色,但它們會犯非常愚蠢的錯誤,暴露出它們實(shí)際上并不理解世界的運(yùn)行方式。這也是為什么我們有能通過律師資格考試的系統(tǒng)、有能幫你寫論文的系統(tǒng),但我們卻沒有家用機(jī)器人,沒有完全自動駕駛的汽車(即五級自動駕駛)。這些系統(tǒng)甚至無法理解你家里的貓都能理解的基本常識。

所以我一直很直言地說,即便是最聰明的 LLMs,其智能水平還不如一只家貓,這的確是事實(shí)。

未來幾年的挑戰(zhàn)在于構(gòu)建能夠突破這些限制的 AI 系統(tǒng),即能夠理解物理世界、具有持久記憶的系統(tǒng),而這些是現(xiàn)有 LLMs 所缺乏的。

4.楊立昆的解法:不預(yù)測像素,預(yù)測這些像素的抽象

主持人 Nikhil Kamath :那么,記憶最終會成為答案嗎?從生物學(xué)角度來看,我們?nèi)祟愂峭ㄟ^記憶來學(xué)習(xí)的。

LeCun :嗯,這取決于是哪種記憶。我的意思是,我們?nèi)祟愐灿卸喾N類型的記憶??梢詫⑵漕惐葹橛?jì)算機(jī),皮層是CPU,海馬體是內(nèi)存,負(fù)責(zé)讀取和寫入數(shù)據(jù)。

但當(dāng)前的AI系統(tǒng)設(shè)計(jì)并不是這樣的。LLMs(大語言模型)除了生成提示詞時使用的上下文外,沒有獨(dú)立的記憶模塊。它們也不具備搜索多個答案并找到正確答案的能力,盡管目前有一些初步的嘗試。例如你可能聽說過OpenAI的 o1 項(xiàng)目,還有類似的工作在其他地方展開。這些系統(tǒng)進(jìn)行一些非常基礎(chǔ)的推理,比如讓LLM生成多種詞序列,然后通過某種方式篩選出最佳序列,但這種方法效率非常低下,所以并不是理想的解決方案。

回到問題本身,即如何讓機(jī)器通過觀察世界、觀看視頻來學(xué)習(xí)。我們可以使用生成式架構(gòu)來生成視頻中的每一個像素,但這完全不現(xiàn)實(shí)。我嘗試了將近15年。五年前,我們提出了一種不同的方法,稱為Jeppo。這是一種新的架構(gòu),意思是“聯(lián)合嵌入預(yù)測架構(gòu)”(joint embedding predictive architecture)。

主持人 Nikhil Kamath :我在你接受Lex Fridman采訪時聽過你講Jeppo這個概念很久了。

LeCun :與其取一段視頻并訓(xùn)練一個大型神經(jīng)網(wǎng)絡(luò)來預(yù)測視頻接下來的所有像素,不如將視頻輸入一個編碼器。這個編碼器是一個大型神經(jīng)網(wǎng)絡(luò),會生成視頻的抽象表示。然后,把視頻的剩余部分(未來的部分,比如視頻的后半段)也輸入同樣的編碼器。接下來,你可以訓(xùn)練一個預(yù)測系統(tǒng)來完成預(yù)測任務(wù)。

主持人 Nikhil Kamath :這有點(diǎn)像LLM,通過刪除部分?jǐn)?shù)據(jù)來訓(xùn)練模型。

LeCun 。沒錯,在LLM中,你取一段文本,訓(xùn)練它預(yù)測文本的其余部分,并逐字進(jìn)行。當(dāng)然,你也可以預(yù)測多個詞匯。在這里,我們將對視頻做類似的事情,訓(xùn)練系統(tǒng)預(yù)測視頻的其余部分。不過,與其預(yù)測視頻中的所有像素,不如先用編碼器處理視頻,得到視頻的抽象表示,然后在這些表示的空間中進(jìn)行預(yù)測。這樣一來,我們不是預(yù)測像素,而是預(yù)測這些像素的抽象表示,在這個表示中,所有無法預(yù)測的內(nèi)容都已經(jīng)從表示中去除。

5.談未來:AI創(chuàng)業(yè)者應(yīng)該讀博、開源生態(tài)及新時代人類智能

主持人 Nikhil Kamath :作為一名20歲的印度人,想在AI領(lǐng)域建立事業(yè),成為AI領(lǐng)域的從業(yè)者,我們該怎么做?

LeCun :希望等到22歲畢業(yè)時,能去做很好的博士項(xiàng)目。

主持人 Nikhil Kamath :在學(xué)術(shù)視角之外呢?

LeCun :不,因?yàn)槲倚枰?xùn)練自己去創(chuàng)新。做博士或研究生學(xué)習(xí),可以訓(xùn)練你去發(fā)明新事物,同時確保你使用的方法論能防止你自己誤以為你在創(chuàng)新,但其實(shí)并不是。

像AI這樣復(fù)雜且深奧的領(lǐng)域,這有很多好處。你可能不做這個也能成功,那不是問題,但這會給你一種不同的視角。

如果你在做博士,你也在做創(chuàng)業(yè)公司,如果你發(fā)表了一些論文,發(fā)明了新東西,告訴別人:“這是一個新技術(shù),真的能帶來變化。”你去找投資人,可能會更容易籌集資金。

主持人 Nikhil Kamath :你比我更擅長想象未來,你能描述五年后的未來嗎?

LeCun : 五年后,世界將由開源平臺主導(dǎo),就像今天嵌入式設(shè)備和操作系統(tǒng)的世界被Linux主導(dǎo)一樣。整個世界都在運(yùn)行Linux,而25年前甚至20年前并非如此。它之所以成為今天這樣,是因?yàn)殚_源平臺更加便攜、更靈活、更安全、成本也更低。

主持人 Nikhil Kamath :那么,社會中的智能會發(fā)生什么變化?拋開計(jì)算機(jī)和AI不談,對于人類來說,在這樣的世界里,智能是什么?

LeCun :人類智能的衡量方式將會轉(zhuǎn)向與今天不同的一套測試,因?yàn)楹芏辔覀兘裉煨枰瓿傻娜蝿?wù)將由AI系統(tǒng)完成。我們會把精力集中在其他任務(wù)上,比如不是執(zhí)行任務(wù),而是決定做什么或者想出要做什么。

主持人 Nikhil Kamath :所以我們需要更少的人來指揮那些比我們高效的系統(tǒng)去完成任務(wù),而不是像現(xiàn)在這樣需要更多的人來執(zhí)行任務(wù),對吧?那其他人怎么辦?

LeCun :我認(rèn)為每個人都會處于這樣的環(huán)境中,能夠接觸到AI系統(tǒng)并將許多任務(wù)委托出去,主要是在虛擬世界里。最終,在現(xiàn)實(shí)世界中,我們也會擁有類似家用機(jī)器人、自動駕駛汽車之類的東西——只要我們解決了如何通過視頻讓系統(tǒng)理解現(xiàn)實(shí)世界的問題。這樣,我們能夠?qū)W⒂诟橄蟮娜蝿?wù),就像我們今天不再需要做快速的心算,因?yàn)橛辛擞?jì)算器。積分和微分方程我們需要學(xué)習(xí)基礎(chǔ)知識,但也可以借助計(jì)算機(jī)工具完成。

AI會提升我們處理問題的抽象層次,讓我們更具創(chuàng)造力和生產(chǎn)力。很多你和我學(xué)過的技能,在未來我們的后代可能不需要再學(xué),因?yàn)檫@些都將被自動化解決。

主持人 Nikhil Kamath :機(jī)器代替人類去上學(xué)了?

LeCun :不會的,我們?nèi)匀粫ド蠈W(xué)。我們需要教育自己,還會存在人類之間的競爭,比如誰能做得更好、更有創(chuàng)造性。

主持人 Nikhil Kamath :競爭是本能,對吧?

LeCun :是的。我們不會缺少工作機(jī)會。經(jīng)濟(jì)學(xué)家告訴我,我們不會用完工作,因?yàn)閱栴}永遠(yuǎn)存在,但我們可以借助AI找到更好的解決方案。

主持人 Nikhil Kamath :或許我們今天可以結(jié)束于嘗試定義“智能”是什么。我記下了一些想法:智能是信息的集合以及吸收新技能的能力。

LeCun :智能是一組技能的集合,以及快速學(xué)習(xí)新技能的能力,或者是在不學(xué)習(xí)的情況下解決問題的能力。在AI領(lǐng)域,這被稱為“零樣本學(xué)習(xí)”(zero-shot)。當(dāng)你面對一個全新的問題,盡管從未遇到過類似的問題,但你可以通過思考和使用你對情境的認(rèn)知模型來解決它。這就是“零樣本學(xué)習(xí)”。你無需學(xué)習(xí)新技能,而是從頭解決問題。

因此,智能是這三者的結(jié)合:已經(jīng)掌握的技能和解決問題的經(jīng)驗(yàn)、通過少量嘗試快速學(xué)習(xí)新技能的能力,以及面對新問題時無需學(xué)習(xí)新技能就能解決問題的能力。

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2020-07-30 13:31:39

AI 數(shù)據(jù)人工智能

2018-11-28 08:42:28

AI人工智能

2023-11-30 08:32:52

人工智能AGI

2024-04-09 12:58:42

馬斯克AI

2025-01-10 11:55:20

2024-05-24 10:03:10

2020-07-23 10:00:50

AI 數(shù)據(jù)人工智能

2025-03-03 10:56:39

2020-05-11 10:58:16

馬斯克語言人工智能

2025-01-24 00:41:59

2017-03-30 11:21:31

百勝機(jī)器人人工智能

2021-07-06 10:39:52

AI 數(shù)據(jù)人工智能

2025-03-03 09:08:00

2023-11-13 10:34:39

AI科學(xué)

2023-12-13 08:46:33

人工智能ChatGPT機(jī)器人

2023-07-06 11:08:39

機(jī)器人人工智能

2023-12-04 10:00:05

Meta人工智能

2017-12-13 17:48:55

2019-04-23 09:57:13

AI 數(shù)據(jù)人工智能

2021-01-12 15:20:39

AI 數(shù)據(jù)人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號