自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

對齊馬斯克,楊立昆稱AGI十年內將實現(xiàn)!談未來:AI不會讓人失業(yè),人類總有解決不完的問題 原創(chuàng)

發(fā)布于 2024-12-13 16:41
瀏覽
0收藏

整理 | 伊風

出品 | 51CTO技術棧(微信號:blog51cto)

楊立昆做客《WTF人物》,與印度企業(yè)家 Nikhil Kamath 談論有關人工智能的一切。

在一個半小時的訪談中,楊立昆的博學和謙遜讓人印象深刻。為了向提問者解釋“神經網(wǎng)絡語言模型”,他可以從香農的信息論講起,把 AI 晦澀的知識講得深入淺出。

對齊馬斯克,楊立昆稱AGI十年內將實現(xiàn)!談未來:AI不會讓人失業(yè),人類總有解決不完的問題-AI.x社區(qū)圖片

談到 AI 教父,他直言不喜歡這個像黑手黨一般的稱呼,但他希望能成為學界的英雄。他更提到,因為他立場鮮明的公開言論,很多人認為他是白癡。

這不得不提到楊立昆對 Transformer 模型的反對態(tài)度。他不止一次地提到 ChatGPT 等 AI 前沿的智力水平仍然遠不及家里的寵物貓。在訪談中,他做出了更詳細的說明。同時認為即使是目前大熱的 o1 ,也只是在進行一些“非?;A的推理,方法效率非常低下,所以并不是理想的解決方案?!彼€分享了自己的研究方向,團隊探索了5年之久的“聯(lián)合嵌入預測架構”及其原理。

談到未來,我們發(fā)現(xiàn)楊立昆對AGI的實現(xiàn)預測提速了10倍。5月底的一場圓桌,他認為AGI將在幾十年后到來。(全文:??我們應該恐懼AGI?楊立昆等語出驚人:這里有兩個悖論??)然而,經歷了今年的探索和技術改進后,他坦言目前的預測是“在5到10年中”,已經和馬斯克、奧特曼等人的預測差別不大。

對齊馬斯克,楊立昆稱AGI十年內將實現(xiàn)!談未來:AI不會讓人失業(yè),人類總有解決不完的問題-AI.x社區(qū)圖片

同時,楊立昆強烈安利 AI 創(chuàng)業(yè)者去卷卷學歷,他解釋說,博士不僅有利于個人理解什么是真正的創(chuàng)新,而且擁有學術成果也會讓融資變得更容易。

最后,他提到,“我們不會沒有工作可做,因為人類總有解決不完的問題”。未來的人類智能應該要掌握三者的結合:已經掌握的技能和解決問題的經驗、通過少量嘗試快速學習新技能的能力,以及面對新問題時無需學習新技能就能解決問題的能力。

以下是經整理的博客精華內容,enjoy:

楊立昆大佬在博客中詳細探討了:反向傳播算法、強化學習領域的現(xiàn)狀、卷積神經網(wǎng)絡等內容,感興趣的朋友可以移步這期節(jié)目。

??https://www.youtube.com/watch?v=JAgHUDhaTU0??

1.談AI教父頭銜:科學界也可以有英雄

主持人 Nikhil Kamath :當有人稱你為“人工智能之父”時,你的感受如何?

LeCun :你怎么看這個稱號?說實話,我不是特別喜歡這個稱呼。我住在新澤西,而在新澤西,“教父”這個詞意味著你是這里黑幫的成員。

科學從來都不是一種個人追求,而是通過多個人的思想碰撞來取得進步的。你會提出假設,然后通過驗證你的假設是否正確來推進科學。例如,驗證你的想法、你的心智模型是否有效,或者通過理論研究等方式。這不是一種孤立的活動??茖W的進步總是許多人共同努力的結果。然而,由于世界運作的方式,我們往往只記住少數(shù)人。我認為很多功勞應該歸功于更多的人,但我們缺乏為更多人歸功的記憶能力。

主持人 Nikhil Kamath :你覺得在學術界和研究領域成為“英雄”是否和在體育或創(chuàng)業(yè)領域成為英雄類似?還是說學術領域更難?

LeCun :我很高興科學界也可以有“英雄”的存在。

在某種程度上,一些其他科學家也算是小有名氣的名人。我認為,部分名聲來自科學成果,但坦白說,有很多作出重要科學貢獻的人完全默默無聞,這讓我有點難過。我覺得那些在科學和技術領域出名的人,往往不僅是因為他們的科學成就,也因為他們的公眾立場。

有一點可能讓我和一些更低調的科學家不同的是,我在社交網(wǎng)絡上非?;钴S,經常發(fā)表公眾演講,并對技術問題和一定程度上的政策問題表達強烈的觀點。這可能導致我的名聲在某些圈子里很高,但在另一些圈子里,我被視為一個徹底的蠢貨。

2.什么是人工智能?“我們總是忽略智能還有其他方面”

主持人 Nikhil Kamath :我們是否可以從“什么是人工智能”開始?

LeCun :好的,這是個好問題。什么是“智能”?在人工智能的歷史中,我認為“什么是人工智能”這個問題有點像盲人摸象的故事。智能有非常不同的方面,而在人工智能的發(fā)展歷程中,人們通常只關注某一種關于智能的視角,而忽略了其他方面。

20世紀50年代,人工智能的早期研究重點是將智能視為推理能力。那么,我們如何進行邏輯推理?如何尋找新問題的解決方案?在50年代,人們意識到可以通過一個問題來描述這種情景。假設我們有一個問題,這已經成為人工智能或計算機科學中的經典問題。

主持人 Nikhil Kamath :找到解決方案確實與智能有關。如果你問我什么是智能,我可能會因為難以用一句話定義而感到無言以對。

LeCun :是的,這就引出了另一個問題。

主持人 Nikhil Kamath :你能解釋一下“盲人摸象”的比喻嗎?

LeCun :當然。你知道盲人摸象的故事吧?第一個盲人摸到大象的側面,說這像是一堵墻;另一個摸到大象的腿,說這像一棵樹;還有一個摸到象鼻,說這像一根管子。沒有人能夠完全理解整體是什么樣子,只能從不同的角度感知它。

因此,將智能視為為特定問題尋找解決方案的這一面只是智能的一個小方面。它是智能的一個部分,但不是全部。然而,在人工智能發(fā)展的初期,有一個分支基本上只關注這個方面。從50年代開始,這個分支在90年代之前一直占主導地位,認為人工智能就是為計劃或問題尋找解決方案。

比如說,如果你想把一些物體堆疊起來,而有些物體比其他物體大,你需要組織堆疊這些物體的順序。這就是計劃問題?;蛘哒f,如果你有一個機器人手臂,需要抓取一個物體,但前面有障礙物,你必須為手臂規(guī)劃一條抓取物體的路徑。這些都是規(guī)劃問題,它們是為問題尋找解決方案的一部分。但這種人工智能的分支,從50年代開始主導直到90年代,完全忽略了諸如感知的問題,比如我們如何理解世界?

我們如何識別一個物體?我們如何將一個物體從背景中分離出來以便識別?以及我們如何不以邏輯或搜索的方式思考,而是用更抽象的方式思考?這些方面在當時基本上被忽視了。

但是在20世紀50年代,還出現(xiàn)了人工智能的另一個分支,這一分支提出:“讓我們嘗試重現(xiàn)動物和人類大腦中體現(xiàn)的智能機制?!痹趧游锖腿祟惖拇竽X中,基本機制是大腦會自我組織和學習,它們并非天生就聰明。智能是一種由大量簡單元素(彼此連接的網(wǎng)絡)中涌現(xiàn)的現(xiàn)象。

因此,在50年代,這些研究者開始發(fā)現(xiàn),智能和記憶來源于神經元之間連接強度的變化(以一種簡化的方式來說)。大腦學習的方式是通過修改神經元之間連接的強度來實現(xiàn)的。于是,有些人提出了理論模型,甚至設計了能夠重現(xiàn)這一現(xiàn)象的電子電路——也就是探索“我們是否可以構建智能”。

3.Transformer 帶不來AGI,未來需要突破LLM的局限

主持人 Nikhil Kamath :什么是自監(jiān)督學習?

LeCun :自監(jiān)督學習是一種方法,其中輸入和輸出沒有明確的區(qū)分。兩者實際上是同一件事情。如果輸入是一個圖像,你訓練自監(jiān)督學習系統(tǒng)的方法是通過某種方式破壞或轉換圖像,然后讓系統(tǒng)從損壞或轉換后的版本中恢復原始圖像。

與其讓人類去處理數(shù)百萬張圖像并告訴你“這是貓、這是狗、這是桌子”,你只需展示一張貓、狗或桌子的圖像,然后對其進行破壞(部分修改,可能是改變顏色或其他形式),接著讓系統(tǒng)從被破壞的圖像中恢復原始圖像。這就是一種特定形式的自監(jiān)督學習。這種方法在自然語言理解方面非常成功。

像聊天機器人或大型語言模型(LLMs)就是自監(jiān)督學習的一個特殊案例。在這種情況下,你訓練一個系統(tǒng)來預測一個單詞,但它只能看前面的單詞(位于左邊的單詞)。這需要以一種特定的方式構建神經網(wǎng)絡,使預測某個單詞的連接只能查看前面的單詞。因此,你不需要破壞輸入。只需展示輸入,通過系統(tǒng)的結構,系統(tǒng)只能從上下文中被訓練來預測下一個單詞。

主持人 Nikhil Kamath : 所以,Transformer 對文本效果最佳,但對圖片和視頻并不適用。

LeCun :這是因為文本中可能發(fā)生的事情是有限的,對吧?詞典中的詞匯數(shù)量是有限的。因此,如果你可以將信號離散化,就可以使用這些自回歸預測系統(tǒng)。

主要問題在于,你永遠無法做出完全準確的預測。所以系統(tǒng)需要學習某種概率分布,或者至少生成不同潛在輸出的不同評分。如果可能的結果是有限的,比如語言,你可以輸出一個概率列表。但如果你想預測視頻中將發(fā)生什么,視頻幀的可能數(shù)量基本上是無限的,對吧?

比如說想象一下像素,每一幀可能包含1000個像素,每個像素都有顏色值,你需要生成3個值,這就意味著你要生成300萬的值。而我們還不知道如何表示覆蓋所有可能圖像(包含300萬個像素)的概率分布。

主持人 Nikhil Kamath :但這正是大家非常興奮的地方。

LeCun :是的,這也是很多人認為 AI 下一個挑戰(zhàn)的領域。我們需要讓系統(tǒng)通過觀看視頻來學習世界的運作方式。

主持人 Nikhil Kamath :如果你通過視頻和圖片學習,這是下一階段的發(fā)展方向,那它在整個圖景中屬于哪個部分?它屬于今天提到的 LLMs 的范疇嗎?

LeCun :不,這完全不同于 LLMs。這也是為什么我一直很直言地表示,LLMs 并不是通向人類級別智能的路徑。LLMs 適用于離散的世界,但它們不適用于連續(xù)的高維世界,比如視頻。這也是為什么 LLMs 無法理解物理世界,無法以其現(xiàn)有形式真正理解現(xiàn)實世界的原因。

LLMs 的語言處理能力非常出色,但它們會犯非常愚蠢的錯誤,暴露出它們實際上并不理解世界的運行方式。這也是為什么我們有能通過律師資格考試的系統(tǒng)、有能幫你寫論文的系統(tǒng),但我們卻沒有家用機器人,沒有完全自動駕駛的汽車(即五級自動駕駛)。這些系統(tǒng)甚至無法理解你家里的貓都能理解的基本常識。

所以我一直很直言地說,即便是最聰明的 LLMs,其智能水平還不如一只家貓,這的確是事實。

未來幾年的挑戰(zhàn)在于構建能夠突破這些限制的 AI 系統(tǒng),即能夠理解物理世界、具有持久記憶的系統(tǒng),而這些是現(xiàn)有 LLMs 所缺乏的。

4.楊立昆的解法:不預測像素,預測這些像素的抽象

主持人 Nikhil Kamath :那么,記憶最終會成為答案嗎?從生物學角度來看,我們人類是通過記憶來學習的。

LeCun :嗯,這取決于是哪種記憶。我的意思是,我們人類也有多種類型的記憶??梢詫⑵漕惐葹橛嬎銠C,皮層是CPU,海馬體是內存,負責讀取和寫入數(shù)據(jù)。

但當前的AI系統(tǒng)設計并不是這樣的。LLMs(大語言模型)除了生成提示詞時使用的上下文外,沒有獨立的記憶模塊。它們也不具備搜索多個答案并找到正確答案的能力,盡管目前有一些初步的嘗試。例如你可能聽說過OpenAI的 o1 項目,還有類似的工作在其他地方展開。這些系統(tǒng)進行一些非?;A的推理,比如讓LLM生成多種詞序列,然后通過某種方式篩選出最佳序列,但這種方法效率非常低下,所以并不是理想的解決方案。

回到問題本身,即如何讓機器通過觀察世界、觀看視頻來學習。我們可以使用生成式架構來生成視頻中的每一個像素,但這完全不現(xiàn)實。我嘗試了將近15年。五年前,我們提出了一種不同的方法,稱為Jeppo。這是一種新的架構,意思是“聯(lián)合嵌入預測架構”(joint embedding predictive architecture)。

主持人 Nikhil Kamath :我在你接受Lex Fridman采訪時聽過你講Jeppo這個概念很久了。

LeCun :與其取一段視頻并訓練一個大型神經網(wǎng)絡來預測視頻接下來的所有像素,不如將視頻輸入一個編碼器。這個編碼器是一個大型神經網(wǎng)絡,會生成視頻的抽象表示。然后,把視頻的剩余部分(未來的部分,比如視頻的后半段)也輸入同樣的編碼器。接下來,你可以訓練一個預測系統(tǒng)來完成預測任務。

主持人 Nikhil Kamath :這有點像LLM,通過刪除部分數(shù)據(jù)來訓練模型。

LeCun 。沒錯,在LLM中,你取一段文本,訓練它預測文本的其余部分,并逐字進行。當然,你也可以預測多個詞匯。在這里,我們將對視頻做類似的事情,訓練系統(tǒng)預測視頻的其余部分。不過,與其預測視頻中的所有像素,不如先用編碼器處理視頻,得到視頻的抽象表示,然后在這些表示的空間中進行預測。這樣一來,我們不是預測像素,而是預測這些像素的抽象表示,在這個表示中,所有無法預測的內容都已經從表示中去除。

5.談未來:AI創(chuàng)業(yè)者應該讀博、開源生態(tài)及新時代人類智能

主持人 Nikhil Kamath :作為一名20歲的印度人,想在AI領域建立事業(yè),成為AI領域的從業(yè)者,我們該怎么做?

LeCun :希望等到22歲畢業(yè)時,能去做很好的博士項目。

主持人 Nikhil Kamath :在學術視角之外呢?

LeCun :不,因為我需要訓練自己去創(chuàng)新。做博士或研究生學習,可以訓練你去發(fā)明新事物,同時確保你使用的方法論能防止你自己誤以為你在創(chuàng)新,但其實并不是。

像AI這樣復雜且深奧的領域,這有很多好處。你可能不做這個也能成功,那不是問題,但這會給你一種不同的視角。

如果你在做博士,你也在做創(chuàng)業(yè)公司,如果你發(fā)表了一些論文,發(fā)明了新東西,告訴別人:“這是一個新技術,真的能帶來變化?!蹦闳フ彝顿Y人,可能會更容易籌集資金。

主持人 Nikhil Kamath :你比我更擅長想象未來,你能描述五年后的未來嗎?

LeCun : 五年后,世界將由開源平臺主導,就像今天嵌入式設備和操作系統(tǒng)的世界被Linux主導一樣。整個世界都在運行Linux,而25年前甚至20年前并非如此。它之所以成為今天這樣,是因為開源平臺更加便攜、更靈活、更安全、成本也更低。

主持人 Nikhil Kamath :那么,社會中的智能會發(fā)生什么變化?拋開計算機和AI不談,對于人類來說,在這樣的世界里,智能是什么?

LeCun :人類智能的衡量方式將會轉向與今天不同的一套測試,因為很多我們今天需要完成的任務將由AI系統(tǒng)完成。我們會把精力集中在其他任務上,比如不是執(zhí)行任務,而是決定做什么或者想出要做什么。

主持人 Nikhil Kamath :所以我們需要更少的人來指揮那些比我們高效的系統(tǒng)去完成任務,而不是像現(xiàn)在這樣需要更多的人來執(zhí)行任務,對吧?那其他人怎么辦?

LeCun :我認為每個人都會處于這樣的環(huán)境中,能夠接觸到AI系統(tǒng)并將許多任務委托出去,主要是在虛擬世界里。最終,在現(xiàn)實世界中,我們也會擁有類似家用機器人、自動駕駛汽車之類的東西——只要我們解決了如何通過視頻讓系統(tǒng)理解現(xiàn)實世界的問題。這樣,我們能夠專注于更抽象的任務,就像我們今天不再需要做快速的心算,因為有了計算器。積分和微分方程我們需要學習基礎知識,但也可以借助計算機工具完成。

AI會提升我們處理問題的抽象層次,讓我們更具創(chuàng)造力和生產力。很多你和我學過的技能,在未來我們的后代可能不需要再學,因為這些都將被自動化解決。

主持人 Nikhil Kamath :機器代替人類去上學了?

LeCun :不會的,我們仍然會去上學。我們需要教育自己,還會存在人類之間的競爭,比如誰能做得更好、更有創(chuàng)造性。

主持人 Nikhil Kamath :競爭是本能,對吧?

LeCun :是的。我們不會缺少工作機會。經濟學家告訴我,我們不會用完工作,因為問題永遠存在,但我們可以借助AI找到更好的解決方案。

主持人 Nikhil Kamath :或許我們今天可以結束于嘗試定義“智能”是什么。我記下了一些想法:智能是信息的集合以及吸收新技能的能力。

LeCun :智能是一組技能的集合,以及快速學習新技能的能力,或者是在不學習的情況下解決問題的能力。在AI領域,這被稱為“零樣本學習”(zero-shot)。當你面對一個全新的問題,盡管從未遇到過類似的問題,但你可以通過思考和使用你對情境的認知模型來解決它。這就是“零樣本學習”。你無需學習新技能,而是從頭解決問題。

因此,智能是這三者的結合:已經掌握的技能和解決問題的經驗、通過少量嘗試快速學習新技能的能力,以及面對新問題時無需學習新技能就能解決問題的能力。

本文轉載自??51CTO技術棧??,作者:伊風

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2024-12-13 17:32:34修改
收藏
回復
舉報
回復
相關推薦