自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Meta楊立昆引燃全民大討論:美政府有些人被洗腦了,監(jiān)管讓開源變得像非法一樣!Meta也犯過錯!大模型不如貓,保質期就3年!

原創(chuàng) 精選
人工智能
談及模型存在的偏見問題,Lecun指出,建立一個享有全球共識價值觀的世界大模型不太可能,一種可能是世界上每個地區(qū)、每個利益集團都可以有自己的數(shù)據(jù)中心和數(shù)據(jù)集,并為訓練一個全球模型做出貢獻。

編輯 | 言征

出品 | 51CTO技術棧(微信號:blog51cto)

1月23日,在冬季達沃斯論壇的“辯論技術”環(huán)節(jié),Meta公司副總裁兼首席人工智能科學家Yann Lecun、麻省理工學院媒體實驗室主任 Dava Newman、Axios首席技術記者Ina Turpen Fried(主持人)就未來十年前沿科技進行了時長47分鐘的“全民”大討論,話題涵蓋了LLM、智能體、消費機器人、腦機接口、跨物種、太空探索,也討論了非常讓Meta敏感的“技術作惡”、審查監(jiān)管、開閉源之爭。觀眾們更是抓住機會讓兩位嘉賓抖出了很多猛料。

Lecun表示,現(xiàn)在的大模型并沒有達到預期效果,在很多方面都存在不足:“我認為當前 LLM范式的保質期相當短,可能只有3到5年?!彼J為理解物理世界的“世界模型”才是未來,但這可能還需要10年左右的時間。

談及模型存在的偏見問題,Lecun指出,建立一個享有全球共識價值觀的世界大模型不太可能,一種可能是世界上每個地區(qū)、每個利益集團都可以有自己的數(shù)據(jù)中心和數(shù)據(jù)集,并為訓練一個全球模型做出貢獻。

審查監(jiān)管方面,Lecun表示,內容政策是公開的,但這并不意味著實施過程沒有問題?!艾F(xiàn)在,我們有機會把它做對。”

提及外太空探索,Dava認為我們需要認識到世界不是以人類為中心的,火星在35億年前可能就存在過生命。而且生成式生物時代已經來臨;對于消費者機器人領域,Dava認為最終機器人會達到一個物理和網絡融合的階段,不再區(qū)分硬件和軟件。

另外提一點,馬斯克一直看好的腦機接口,被Lecun上來直接debuff:非侵入式的還好,鉆開大腦這種侵入式的基本沒戲。

以下是精彩摘要,各位先行速覽:

  • Meta也犯過錯誤,部署了一個系統(tǒng)后才發(fā)現(xiàn)它沒有按我們預期的方式運行,于是不得不撤回并用其他系統(tǒng)替代。
  • 通用人工智能(AGI),這其實是一個誤稱。
  • 我們永遠不會通過僅僅處理文本數(shù)據(jù)來達到人類水平的人工智能。我們需要能夠通過感官數(shù)據(jù)學習世界是如何運作的系統(tǒng),而不僅僅是通過語言。
  • 五年之內,沒有一個頭腦正常的人會再使用它們,至少不會將其作為 AI 系統(tǒng)的核心組件。我認為我們將看到 AI 架構的新范式的出現(xiàn),它可能沒有當前 AI 系統(tǒng)的局限性。
  • 我們沒有能夠做到貓能做到的事情的機器人——了解貓的物理世界比我們用人工智能所能做的一切要優(yōu)越得多。
  • 也許未來十年將是機器人的十年,也許我們將擁有足夠聰明的人工智能系統(tǒng)來理解現(xiàn)實世界是如何運作的。
  • 這就是我們正在研究的——讓系統(tǒng)建立世界的心理模型。如果我們的計劃成功了,按照我們希望的時間表,三到五年內我們將擁有完全不同范式的系統(tǒng)。他們可能有一定程度的常識。他們可能能夠通過觀察世界并與之互動來了解世界是如何運轉的。
  • 我覺得政府里有些人被洗腦了,相信了所謂的“存在風險論”,導致出臺了一些實際上適得其反的監(jiān)管措施。因為這些措施本質上使得開源人工智能引擎的分發(fā)變得幾乎非法
  • 我認為我們需要重新思考:數(shù)據(jù)從哪里來?透明度在哪里?它是否為我們所有人服務?
  • 火星,它可能在35億年前就存在過生命。所以,我們需要一點謙遜,認識到人類并不是一切的中心。
  • 我們已經進入半機械人階段,人們植入后正在四處走動。

以下是演講過程全文整理:

Ina(主持人):

現(xiàn)在科技領域有太多值得討論的話題了,今天的主題是關于科技的辯論。我不認為科技本身存在“是”或“不是”的辯論。但在過去25年報道硅谷的經歷中,我經常聽到有人這樣說:“科技既可以用于好的方面,也可以用于壞的方面”,這本身是正確的,尤其是那些科技的制造者,他們會說:“它會被用于好的方面或壞的方面,希望好的方面能勝過壞的方面。”但對我來說,這種說法忽視了我們推動、引導和限制科技以使其用于好的方面的責任。

不過,我們稍后會討論這個話題。這是一個令人激動的時刻,尤其是隨著人工智能、機器人技術和所有這些科技的發(fā)展。但同時,這也是一個令人擔憂的時刻。許多人對這種變化會帶來什么感到擔憂。好了,關于這個話題,我已經說得夠多了。我很高興今天能和Dava Newman一起,他是麻省理工學院媒體實驗室的負責人,還有Yann Lecun,他在Meta領導人工智能研究和其他活動。

Dava,或許你可以先說說你的看法。你有著如此廣泛的科技背景,從你在太空領域的經歷,到你現(xiàn)在關注的領域,你覺得哪些問題和領域需要我們的關注?你最近在思考什么?謝謝大家,早上好,很高興和大家在一起。

Dava:

我的思緒通常在太空中,你知道的,思考我們是否會成為一個跨物種的文明,我們是否會在其他地方找到生命。但這并不是我最近真正關注的。我真正思考的是科技以及我們所感受到的顛覆,以及即將到來的、更高級別的顛覆。也許我可以這樣描述,現(xiàn)在我認為我們正處于一個科技超級周期,三種技術同時融合。你知道工業(yè)革命時,我們一次只引入一種技術,而這次人工智能的出現(xiàn),它雖然是一個大型語言模型,而且仍然處于起步階段。在麻省理工學院媒體實驗室,我們研究人工智能已經有50年了?,F(xiàn)在它已經普及到每個人的手中,成為一個輔助工具。我相信我們會在稍后的辯論中,和我的同事以及這方面的專家深入討論它。

我想強調的是,關于人工智能和生成式人工智能最重要的事情是,我們?yōu)槿祟愒O計,以人類為中心,促進人類的繁榮。這是媒體實驗室的宗旨。它是否值得信任?它是否負責任?這就是我們的前提。實際上,如果不是這樣,我們是不會做的。但請系好安全帶,因為火箭發(fā)射即將到來。我認為我們很快就會開始討論生成式生物技術,如果你還沒有開始的話。不僅僅是合成生物,而是生成式生物。生物是有機的,所以當人工智能轉變?yōu)樯墒缴铮℅en Bio)時,它不再是一個大型語言模型。

實際上,我們現(xiàn)在在媒體實驗室正在研究大型自然模型,它正在吸收生物學、遺傳學和生物傳感器整合在一起。物聯(lián)網(IoT)已經很有名了,我們稱之為“萬物互聯(lián)”,因為物聯(lián)網不僅用于海洋監(jiān)測生物多樣性,還用于監(jiān)測陸地、氣候、空氣和大氣等方面。而且從太空測量的氣候變量中,超過一半的數(shù)據(jù)現(xiàn)在都是通過太空測量的。所以,這種技術的旋風,我不知道還能叫它什么,伴隨著生成式人工智能(Gen AI)、生物傳感器測量一切,最終,我把人類和以人為中心的設計放在中間,并提出一個前置問題:這是否是為人類繁榮和所有生物的繁榮而有意為之的?

Ina:

如果答案是否定的,那么我們的算法就不應該去做這件事。Yann,這是一個很好的切入點,我想聽聽你的看法:我們如何確保我們能夠構建的人工智能是我們真正想要的?你如何專注于在Meta的工作和開發(fā),以確保我們得到的人工智能能夠為人類服務?

Yann:

這有兩個答案。首先,你要努力讓它工作得更好、更可靠。目前我們擁有的生成式人工智能,它還沒有達到我們想要的水平,雖然它非常有用,但我們應該推動它,讓它更可靠,讓它能夠適用于更廣泛的領域,但它還沒有達到我們想要的水平,而且它在很多方面并不可控。所以,我認為在未來3到5年內,我們將看到一種新的AI架構的出現(xiàn)。

那么,當前人工智能系統(tǒng)的局限性是什么?有四個對智能行為至關重要的方面,它們做得并不好。首先是理解物理世界,第二是擁有持久記憶,第三和第四是能夠進行推理和復雜規(guī)劃。而語言模型在這方面真的無能為力。有一些嘗試試圖在它們的基礎上增加一些功能,讓它們能夠做一點這樣的事情,但最終,這必須以不同的方式來完成。所以,在未來幾年內,人工智能將迎來另一次革命,我們可能不得不改變它的名字,因為它可能不再是我們今天所理解的生成式人工智能。所以,這是第一點。有些人對它有不同的稱呼。

因此,我們今天擁有的技術,大型語言模型,在處理離散世界方面表現(xiàn)得很好,而語言是離散的。我無意冒犯在場的Stephen Pinker,但語言在某種程度上比理解現(xiàn)實世界簡單得多,這也是為什么我們擁有的人工智能系統(tǒng)能夠通過律師資格考試、解決方程等,做些令人驚嘆的事情。但我們還沒有能夠像貓一樣行動的機器人。貓對物理世界的理解遠遠優(yōu)于我們用人工智能所能做到的一切。這告訴你物理世界比人類語言復雜得多。

而語言為什么簡單?因為它是離散的對象,DNA和蛋白質也是如此,它們是離散的。因此,將這些生成式方法應用于這類數(shù)據(jù)取得了巨大的成功,因為在一個離散的世界里進行預測是很容易的。你可以預測在特定文本之后可能出現(xiàn)的單詞,但你可以為字典中所有可能的單詞生成一個概率分布,因為它們的數(shù)量是有限的。如果你想將同樣的原則應用于理解物理世界,你將不得不訓練一個系統(tǒng)來預測視頻。

例如,向系統(tǒng)展示一個視頻,要求你預測接下來會發(fā)生什么,這被證明是一個完全無法解決的任務。所以,用于大型語言模型的技術并不適用于視頻預測,所以我們必須使用新技術,這正是我們在Meta所研究的。但可能需要幾年時間才能實現(xiàn)。

所以,這是第一點。一旦實現(xiàn),它將為人工智能開辟一個全新的應用領域,因為我們將擁有能夠推理和規(guī)劃的系統(tǒng),因為它們將擁有某種世界模型,而目前的系統(tǒng)并沒有。所以,它們將能夠預測其行為的后果,并規(guī)劃一系列行動以實現(xiàn)特定目標,這可能為真正的代理系統(tǒng)打開大門。

我們在談論自主型人工智能,但沒有人知道如何正確地去做它,這也可以應用于機器人技術。所以,未來十年可能是機器人的十年。這是第一個答案。

第二個答案更簡短一些:確保人工智能被正確應用的方法是為人們提供工具,讓他們能夠構建多樣化的人工智能系統(tǒng)和助手,這些工具能夠理解世界上所有的語言、文化、價值觀等。這只能通過開源平臺來實現(xiàn)。我堅信,隨著人工智能行業(yè)和生態(tài)系統(tǒng)的不斷發(fā)展,開源基礎模型將主導專有系統(tǒng),它們將成為整個行業(yè)的基礎,至少在某種程度上已經如此。它們將促進真正多樣化的人工智能系統(tǒng)的發(fā)展,我認為這是至關重要的。因為在幾年內,你和我都會戴上智能眼鏡,對吧?你可以與人工智能助手交談,向它提問。但很快,我們會有越來越多的東西帶有顯示屏,所有的一切。我們的所有數(shù)字消費都將由人工智能助手介導。所以,如果我們只能接觸到來自美國西海岸或中國少數(shù)幾家公司的三四個助手,這對文化多樣性、民主等都是不利的。因此,我們需要一個非常多樣化的人工智能系統(tǒng),而這一切只能通過開源來實現(xiàn),這也是Meta一直在推動的。

Ina:

好的,謝謝你們兩位。我認為這為討論奠定了良好的基礎,并且提醒一下,這不是小組討論,而是一場市民大會。

首先,我們問了直播觀眾一個問題,他們可以通過Slido平臺參與進來。我們也問了大家,希望這些新興技術如何為未來做出貢獻。我們不會展示所有的回答,但這里有一個詞云,顯示了大家提到的一些內容。

我們可以快速看一下……嗯,這是問題。我不太確定我們如何得出答案。新技術就像一塊白板,對吧?我相信大家一定討論了很多他們術既感到興奮又感到擔憂的地方。我想請大家準備好問題,我相信房間里每個人都有要問的問題。

Yann,我想繼續(xù)剛才關于開源的問題,因為這確實是一個很大的爭論。正如我所說,技術本身并不是爭論的焦點,而是我們采取的方法。開源確實有你提到的所有優(yōu)勢,它可以讓世界各地的人參與進來。只有少數(shù)人能夠訓練這些巨大的模型,但很多人都可以利用它們,并同時做出貢獻。然而,真正令人擔憂的是,將這種強大的技術交給世界,并說“基本上,這是我們的可接受使用政策,這是你可以做和不能做的事情”,但老實說,一旦它被發(fā)布出去,就很難再加以管控了。我們如何確保某件事情既開源又安全呢?

Yann:

所以,我們在Meta所做的是,當我們分發(fā)一個模型時,順便說一下,我們說開源,但從技術上講,這些模型并不是真正的開源,因為模型的源代碼是可用的,模型的權重也是免費提供的,你可以用它們做任何你想做的事情,除了那些限制條款。不要用它來做危險的事情。所以,我們所做的是對這些系統(tǒng)進行微調,并進行紅隊測試,以確保至少在第一階段,它們不會產生無意義的或有毒的答案之類的東西,但這種方法的效果是有限的。這些系統(tǒng)可能會被繞過。你可以通過所謂的提示注入攻擊,將系統(tǒng)帶出其被微調的領域,然后你就會得到一些奇怪的東西,這取決于模型的預訓練數(shù)據(jù)是什么,當然,這是一個高質量數(shù)據(jù)和不太高質量數(shù)據(jù)的組合。

Ina:

那么,Dava你對這種開源方式的看法是什么?顯然,這種方式有好處,麻省理工學院是開源的先鋒,甚至有一個MIT開源許可,我甚至不記得它是否就是Meta所使用的許可。但當你談到讓技術以人為本,把人類的需求和關切放在首位時,你認為需要做些什么呢?你提到了合成生物學,顯然還有很多被忽視的疾病,我們希望用這些新技術來解決,但我們不希望每個人都在家里開發(fā)新的微生物并到處傳播。那么,你對如何讓這種技術廣泛可用但仍然安全有什么看法呢?

Dava:

是的,這是一個問題,同時我也看到了大家的擔憂。關于人工智能在太空中的應用,我同意這一點,我們可以稍后討論詞云。所以,基于開源平臺,但要設置一些限制,我們所有人都需要承擔責任?,F(xiàn)在,我們可以問一下觀眾,人工智能是否對你有用?我的意思是,你是否信任它?它是否負責任?它是否代表了你?你認為它的訓練數(shù)據(jù)是否能很好地代表你?

讓我們問一下觀眾,有多少人覺得它安全、可靠,并且你愿意今天就去使用它?在辯論期間,有人愿意舉手嗎?我想這就是答案。

我認為問題不在于有多少人愿意開放地接受人工智能,或者一旦他們覺得它安全可靠就愿意去使用它,而是它還沒有達到那個程度。它并不具有代表性,不能代表這個房間里每個人的觀點,更不用說整個世界了,因為世界比我們在這個房間里看到的要多樣化得多。

所以,這也許就是辯論的起點。我們希望開源,希望所有的學生都能成為超級明星和天才,希望下一代人都能發(fā)揮他們的創(chuàng)造力和好奇心,因為這就是人類繁榮的方式。

但如果我們只是讓算法自行其是,我認為我們需要重新思考:數(shù)據(jù)從哪里來?透明度在哪里?它是否為我們所有人服務?如果這些問題能夠得到很好的回答,我相信大多數(shù)人會選擇加入,并且希望讓事情變得更好。開源的目的是為了匯聚所有好的想法,讓技術為每個人服務。但我覺得我們在這里需要非常明確地指出:透明度在哪里?信任在哪里?它是否已經脫離了我們的掌控?這些都是非常重要的問題。而開源的原因在于,你可以匯聚所有的好想法并加以改進。

Ina:

Yann,我想再追問你一個問題,然后我真的希望你們都準備好問題,因為接下來我會轉向你們。我想再追問一個領域,那就是價值觀。

我去年寫過關于這個話題的文章,社交媒體一直圍繞內容審核展開——允許什么樣的言論,以及如何劃定界限。顯然,Meta在這方面投入了大量時間,也嘗試了不同的方法。但在我看來,這些人工智能系統(tǒng)將不得不具備價值觀。你的個人電腦并沒有一套價值觀,你的智能手機也不會進行內容審核。但在極端情況下,人工智能系統(tǒng)需要回答一些棘手的問題。

在一個世界中,中東地區(qū)的人們與美國人的價值觀不同,美國不同地區(qū)的人們價值觀也不同。最近,Meta對其內容審核政策進行了多項調整,允許更多可能被認為非常冒犯性、令人反感甚至去人性化的言論。

那么,科技公司在價值觀方面的作用是什么?政府會施加多大的壓力來控制人工智能聊天機器人對性別、性取向、人權等問題的回答?

Yann:

這是一個有趣的話題,盡管這并非我的專業(yè)領域,但仍然很有趣。Meta在內容審核方面經歷了幾個階段,包括不僅針對有毒內容,還有虛假信息,這是一個更難處理的問題。直到2017年,檢測社交網絡上的仇恨言論還非常困難,因為技術尚未成熟。依靠用戶標記不當內容,然后由人工進行審核,這種方法無法擴展,尤其是如果需要這些人工審核員掌握世界上每一種語言。

然后,自然語言理解領域取得了巨大進步,從2017年開始,這一領域取得了巨大的進展。如今,檢測世界上每一種語言的仇恨言論在一定程度上是可行的。例如,2017年底,大約20%到25%的仇恨言論是通過人工智能系統(tǒng)自動刪除的。五年后的今天,由于有了Transformer、監(jiān)督學習以及我們今天為之興奮的所有技術,這一比例達到了96%。

這可能走得太遠了,因為被誤刪除的良好內容數(shù)量可能相當高。

在一些國家,人們彼此之間存在敵意,你可能需要將檢測閾值調低,以避免沖突。而在一些國家,選舉期間可能會引發(fā)緊張局勢,你也會希望降低檢測閾值,以便刪除更多內容以平息局勢。但大多數(shù)時候,你希望人們能夠就重要的社會問題展開辯論,包括那些極具爭議性的問題,比如性別和政治觀點等極端問題。

所以,公司最近意識到它可能走得太遠了,出現(xiàn)了太多誤報?,F(xiàn)在,檢測閾值將被調整,以允許就社會的重大問題展開討論,即使這些話題可能對某些人來說是冒犯性的。這是一個重大變化,但這并不意味著內容審核將消失,只是調整了閾值。

當然,不同國家的答案也不同。在歐洲,仇恨言論是非法的,宣傳也是非法的。你出于法律原因必須進行內容審核,而在美國和一些其他國家,標準則不同。

然后還有虛假信息的問題。直到現(xiàn)在,Meta一直依賴事實核查組織來核查那些引起廣泛關注的帖子。但事實證明,這個系統(tǒng)并不奏效,它無法擴展。這些組織數(shù)量有限,員工也很少,因此無法揭穿在社交網絡上流傳的每一個危險的虛假信息。

所以,目前正在實施的系統(tǒng)是,讓人們自己對有爭議的帖子進行評論。這可能會有更好的覆蓋效果。一些研究表明,這是一種更好的內容審核方式,特別是如果你有一個類似“積分”系統(tǒng),那些發(fā)表可靠評論或者受他人喜歡的人,他們的評論會被提升。許多論壇多年來一直在使用這種系統(tǒng)。所以,對于Meta來說,我們希望這能真正奏效。它還有一個很大的優(yōu)勢,那就是Meta從未認為自己有資格決定什么是社會的對與錯。

在過去,Meta曾要求各國政府來規(guī)范社交媒體上可接受的內容,這發(fā)生在特朗普政府時期。當時,我們問美國政府,什么內容是在線討論中可以接受的,結果卻石沉大海,沒有得到任何回應。我想法國政府可能有一些討論,但當時的特朗普政府卻說:“第一修正案在這里,你們自己看著辦吧?!币虼?,所有這些政策都是由于缺乏監(jiān)管環(huán)境而產生的。現(xiàn)在,內容審核變成了“人民的內容審核”,我們還可以深入討論很多,但我也不想偏離主題。

如果能回到價值觀的問題上,我認為這是正確的問題。我們首先需要明確價值觀是什么,領導者必須能夠清晰地表達價值觀。對我來說,我的價值觀是正直、卓越、好奇心,以及社區(qū)——社區(qū)包括歸屬感和協(xié)作。如果我們能夠表達這些價值觀,那么作為設計師、建造者和技術人員,我們就可以從這些價值觀出發(fā),做出正確的選擇。如果我們做對了,我認為我們需要退一步,明確我們的價值觀是否一致,然后我們才能合作,共同尊重我們文化上的差異,以及人類的多樣性。這是非常美好的,這也是跨文化合作的機遇。但從根本上說,我們仍然需要討論價值觀,我們是否共享價值觀,這是我認為的核心問題。

從這個意義上說,內容政策是公開的,但這只是第一步。接下來是實施。Meta也犯過錯誤,部署了一個系統(tǒng)后才發(fā)現(xiàn)它沒有按我們預期的方式運行,于是不得不撤回并用其他系統(tǒng)替代。這是一個不斷調整的過程。但你可以引領行業(yè),積極地參與這場討論。從所有指標來看,Meta在內容審核方面絕對是領先的

Ina:

那么,我的問題是,你對新政策有什么看法?顯然,很難說什么是共同的價值觀,即使在美國國內也有很多爭論。我們談到了以人為中心的世界,而新政策顯然允許了很多去人性化的言論,比如將女性比作物品,或者對跨性別者、精神疾病患者等群體的不當言論。他們是否找到了平衡,還是說這些政策并不合適?

Dava:

絕對沒有,絕對沒有。我們知道什么是錯誤的,我們了解人類行為,我們知道什么是文明的,我們知道什么能讓人感到快樂。當我們教育孩子時,我們也應該看看我們的孩子和年輕一代,尤其是當我們談論價值觀和我們所擁有的東西,以及我們希望成為什么樣的人時。

當然,這些價值觀需要被表達出來。從這個意義上說,內容政策是公開的,但這并不意味著實施過程沒有問題。我們有機會做對。但你知道,我們已經進行了實驗,互聯(lián)網一代、互聯(lián)網二代,現(xiàn)在是機會做對的時候了。

Ina:

我想邀請觀眾加入我們的討論,如果你有話要說,請先報上你的名字和來自哪里。麥克風正在傳過來,但請簡短介紹自己后直接提問。

觀眾:

我是來自印度班加羅爾的Mukesh。你們的團隊處于人工智能研究的前沿,世界上也有許多其他團隊也是如此。我們是否知道我們正走向何方?有沒有一個關于五年后的心理模型?因為我們都在猜測和討論人工智能的現(xiàn)狀和挑戰(zhàn),等等。我們是否足夠了解我們正走向何方,能否對五年后做出一些預測,還是說這只是一個未知數(shù)?

Yann:

我不能聲稱我了解其他人正在做什么,尤其是那些不公開研究的團隊。但我從我所看到的情況來看,我認為當前的大型語言模型范式的使用壽命相當短,可能只有3到5年。我認為在五年內,沒有人會再使用它們,至少不會將它們作為人工智能系統(tǒng)的核心組件。

它們可能具有一些常識,能夠通過觀察世界來學習世界是如何運作的,并與之互動,處理現(xiàn)實世界的問題,而不僅僅是離散世界的問題,這將為新的應用打開大門。

讓我給你做一個非常有趣的計算:一個典型的大型語言模型,比如擁有20萬億或30萬億個token的基礎模型。一個token通常包含3個字節(jié),所以這大約是10的14次方字節(jié)。我們將其四舍五入,這基本上涵蓋了互聯(lián)網上所有公開可用的文本。一個人類需要10萬年才能讀完這些內容。

現(xiàn)在,讓我們將這個與一個4歲孩子在4年生活中所看到的內容進行比較。你可以計算出視覺皮層或通過觸覺(如果是盲人的話)所接收到的信息量,大約是每秒2MB,每根視神經大約是每秒1MB,每根視神經纖維大約是每秒1字節(jié)。我們每只眼睛有100萬根視神經纖維。將這個乘以4年。一個人類孩子在4年中清醒的時間總共是16000小時。計算一下這有多少字節(jié),大約是10的14次方。

這告訴我們,我們永遠不會通過僅僅處理文本數(shù)據(jù)來達到人類水平的人工智能,有些人稱之為通用人工智能(AGI),但這其實是一個誤稱。我們永遠不會通過僅僅處理文本數(shù)據(jù)來達到人類水平的人工智能。我們需要能夠通過感官數(shù)據(jù)學習世界是如何運作的系統(tǒng),而不僅僅是通過語言。

Dava:

我們永遠不會達到人類水平的人工智能,因為人類的輸入是多感官的。你戴上眼鏡后,你看到的是文字,但我們還有觸覺、聽覺、嗅覺等。今天早上,你聞到的第一件事物是什么?可能是咖啡的香味。這些多感官能力對于人類來說至關重要。我想明確一點,我們談論的是人類的繁榮,以及所有生命的繁榮。我們可以選擇我們的方向,我們可以選擇我們?yōu)檎l設計。

這是一個問題,我們在這個星球上待了多久?地球不需要我們,你知道嗎?地球已經有45億年的歷史了,我們還有一個姐妹星球——火星,它可能在35億年前就存在過生命。所以,我們需要一點謙遜,認識到人類并不是一切的中心。地球可以沒有人類而繼續(xù)存在,我們可能只是個麻煩,一個很大的麻煩。所以,地球不需要我們,但我們需要地球。問題是,我們是否希望與地球和諧共存?我們是否希望過上最好的生活并實現(xiàn)繁榮?然后,你就會從不同的角度去思考解決方案。

Ina:

你從不同的角度去思考問題。我想我聽到那邊有人想發(fā)言。我看到有人舉手了。好的,麥克風正在傳過去。因為我們在直播,所以請先介紹自己。

觀眾:

Moris Band,來自Light Speed,向Dava提問。剛才你談到人工智能,談到人類生命,我很高興你在努力讓人類成為多星球物種。那么,人工智能在這種更廣泛的需求中處于什么位置呢?你認為它是存在的威脅嗎?還是說它是一種增強人類存在的技術?例如,生成式生物技術是不是我們的“大過濾器”?

Dava:

謝謝你的問題。我認為人類才是威脅,而不是 AI或算法。當我們談論太空中尋找生命時,AI 是一個巨大的幫助。所以,當你提到 AI 沒有什么用處時,這有點像說技術本身沒有用處。我們需要更具體地討論。

當我們談論太空探索時,人類在地球上,我們發(fā)送探測器和科學儀器,這與自主機器人和自主系統(tǒng)有很大關系,而不是人類在這里獲取信息,而是那個信息感知和探索的循環(huán)。但這些都是我們將要發(fā)送的自主機器人和系統(tǒng)。當我們發(fā)送人類時,我們會帶著自己的超級計算機,所以第一次載人火星任務將超越我們目前50年在火星上的探索。這就是人類或人類智慧的優(yōu)勢。

但這是一個很好的問題,它既是一種威脅,也是一種優(yōu)勢,我們可以利用它來增強能力,進行搜索和探索。比如,我可以專注于尋找生物標志的證據(jù)或在其他地方尋找生命。不過當我們專注于任務時,要非常透明地說明你如何使用算法和人工智能。我們總是引入一些在大多數(shù)基礎模型開發(fā)中非常缺乏的東西。

你深入到更基礎的模型,具體到健康、氣候或探索等個性化能力時,你必須引入物理學。如果你只是讓事情按照數(shù)學和統(tǒng)計學的方式發(fā)展,看看我們現(xiàn)在所處的位置,雖然這非常棒,但我是一個堅定的生物模仿論者,我試圖理解自然,試圖理解生命系統(tǒng),總是將基礎物理學與數(shù)學結合起來。所以,要沿著這條道路繼續(xù)前進。

Ina:

所以,當我們繼續(xù)這里的討論時,我也邀請在線的觀眾參與。我們有一個問題想問大家:關于我們正在討論的技術,什么讓你感到興奮?什么讓你感到擔憂?我們可以通過 Slido 再做一個詞云分析。如果你正在在線觀看,請在那里分享你的想法。

我們還有一個問題,正在傳麥克風過來。這位是Martina Hirayama,瑞士教育、研究與創(chuàng)新國務秘書。

觀眾:

我的問題提給Dava。你談到人工智能的價值觀,我們在獲取人工智能方面存在分歧,那么,如果我們考慮到我們在地球上生活的所有地區(qū),甚至還沒有談到太空,我們并沒有共享相同的價值觀,這將對AI的發(fā)展產生什么影響呢?

Dava:

是的,我認為這是非?;A的問題。我列出的五六個價值觀,我希望能就當中的兩到三個價值觀達成共識。你可能不會同意整個清單,但我認為我們必須尋找共識和共享的價值觀,然后共同努力。如果做不到,那么也許這就是威脅、分裂和毀滅的場景。我不希望走這條路,我認為我們有另一條路可走。所以,我認為艱巨的工作是努力讓人與人之間、政策與政策之間達成共識,看看我們是否能夠就某些未來場景達成一致。如果能夠達成一些共識,我們可以進行投票,看看在這個多元化的環(huán)境中我們是否能夠找到共同點。所以,這不是一個答案,而是討論的一部分:我們能共享什么,如何找到共同點,并以此為基礎去正確地構建系統(tǒng)。

Ina:

Yann,這是構建這些系統(tǒng)的挑戰(zhàn),因為世界上存在如此多的分歧。我希望我們至少能在一些基本問題上達成一致,盡管看起來很難達成。我知道你提到過使用聯(lián)邦學習,以確保世界上各種文化都能在這些模型中得到體現(xiàn)。但當人工智能系統(tǒng)不僅僅是用來審核內容,而是要創(chuàng)造內容時,我們該如何為一個充滿分歧的世界構建系統(tǒng)呢?

Yann:

我認為答案在于多樣性。如果你有兩三個都來自同一個地方的人工智能系統(tǒng),你就無法獲得多樣性。獲得多樣性的唯一方法是擁有能夠涵蓋世界上所有語言、文化和觀點的系統(tǒng),這些是基礎模型,然后它們可以由大量不同的人進行微調,這些人對什么是好的價值觀有不同的看法。然后人們可以選擇。這和擁有一個多樣化的媒體一樣,你需要媒體中有不同的觀點,至少這是民主的基本要素。對于人工智能系統(tǒng)來說也是如此,你需要它們是多樣化的。

讓一個單一實體去訓練一個包含世界上所有文化數(shù)據(jù)的基礎模型是非常困難的,這可能最終需要以聯(lián)邦或分布式的方式完成。所以,一種方法是,世界上每個地區(qū)、每個利益集團都可以有自己的數(shù)據(jù)中心和數(shù)據(jù)集,并為訓練一個全球模型做出貢獻。這個全球模型最終可能成為人類所有知識的存儲庫。

Ina:

我看到有人舉手了,等麥克風傳過來,謝謝。

Dava:

我覺得聯(lián)邦學習這種方式更令人興奮,因為它更透明,也更定制化、更個性化。它可以根據(jù)具體的工作目標,比如醫(yī)學或健康領域,甚至更具體的目標,比如乳腺癌研究,提供更精確的解決方案。對我來說,這非常令人興奮。

觀眾:

嗨,我是 Mukta Joshi,來自倫敦。我昨天聽了一個小組討論,他們提到了一個讓我感到震驚的概念,我回去做了一些研究。這個概念叫做“對齊偽裝”(alignment faking),即大型語言模型給出的答案似乎是在偽裝與提問者的的意圖對齊。這可能是一個在過去幾個月里發(fā)生的實驗,但我認為這是一個非常令人震驚的現(xiàn)象,我想聽聽你對這個問題的看法。

Yann:

我對這個問題有一個可能有點爭議的看法,那就是在某種程度上,大型語言模型本質上是不安全的,因為它們是不可控的。你沒有直接的方法來控制它們輸出的內容是否符合某些特性。至于護欄(guardrails),唯一的辦法是通過訓練來實現(xiàn),但這種訓練可能會因為超出它們被訓練的領域而被破壞。所以,從某種程度上說,它們是不安全的。

但這并不特別危險,因為它們也不夠聰明。它們是有用的,但從智力上來說,它們更像是智能助手。你知道,如果它們生成的文本中有錯誤,你需要去檢查并糾正一些錯誤。這有點像汽車的駕駛輔助系統(tǒng),我們還沒有完全自動駕駛的汽車,但我們有駕駛輔助系統(tǒng),它運行得很好。

同樣的,我們不應該過度解讀大型語言模型的能力,好像它們能夠偽裝意圖——它們根本沒有任何意圖,也沒有價值觀。就像我說的,它們不會和我們在一起超過五年,我們會擁有更好的系統(tǒng),這些系統(tǒng)是目標驅動的,它們的輸出將通過推理產生,而這種推理將保證輸出的內容符合某些護欄。這些系統(tǒng)將無法被“越獄”,因為這些護欄將被硬編碼進去,所以通過改變提示(prompt)來破解它們是不可能的。

Ina:

所以,鑒于 Yan 剛才所說的話,今年的熱門話題是“代理”(agents),并賦予這些大型語言模型更多的自主性。

考慮到Yan提到的它們的局限性,而Meta這家公司正在開發(fā)這樣的技術,我們是否應該擔心賦予一個沒有價值觀、會犯錯誤的系統(tǒng)更多的自主性和代理權呢?

Dava我認為不需要擔心,我同意Yan說的,這些模型并不聰明,它們沒有理性,也沒有意圖。它們只是缺乏思考能力,你可以把它們看作是數(shù)學和統(tǒng)計學的概率模型。所以,我們更關心的是人類的判斷力。問題是,這聽起來似乎很令人警惕,因為任何類型的偽裝都是令人擔憂的。那么,我們該怎么辦呢?

因為代理(agents)正在變得越來越強大。我不知道是否有解決方案,但有一些簡單的想法可以嘗試。比如,我們可以用版權之類的東西。如果每次我們使用生成式模型時,都能有一個水印,為什么我們不給生成的內容添加水印,讓用戶知道它是否來自算法呢?只是簡單地標注一下,讓用戶知道他們看到的內容是生成式的,這會很有幫助。如果這些內容被提供給某人,他們可以自己判斷。

我想從另一個角度來討論這個問題。我發(fā)表過一篇關于“如何通過機器學習解鎖創(chuàng)造力”的論文。這種生成能力可以幫助我們進行頭腦風暴,生成一些想法。對我來說,生成圖像比生成文本更有用,因為圖像與人類大腦的映射幾乎完美,我們在視覺方面非常擅長。所以,當你說出一個句子,比如“那是什么圖像?”時,我們可以進行一場很好的討論,這將幫助我們更有創(chuàng)造力,有更多的討論。如果它只是作為一個提示,那么它就是一個工具。然而它真的是一個助手,幫助我們進行對話或辯論。我認為它確實應該被標記,我們必須知道它來自哪里,必須知道配方中的成分。

Ina:

很難相信我們只剩下幾分鐘了,我想給每個人一個機會,說說我們還沒有談到的、但應該討論的話題,也許明年我們會談到。

Yann:

好的,按照我們這里的名單,首先是讓你最興奮的技術——腦機接口(brain-computer interface)。別想了,這不會很快發(fā)生,至少那種侵入式的、Neuralink正在研究的類型不會。非侵入式的,比如M公司正在研究的腦電圖手環(huán),是的,今年會有一些進展,這確實令人興奮。但像鉆開大腦這種事,除非是出于臨床目的,否則不會。

嗯,游戲、虛擬世界、元宇宙,Meta 當然在這個領域非?;钴S,比如在元宇宙探索方面。你是這方面的專家,這也很令人興奮。

監(jiān)管,這是一個非常有趣的話題。我覺得政府里有些人被洗腦了,相信了所謂的“存在風險論”,導致出臺了一些實際上適得其反的監(jiān)管措施。因為這些措施本質上使得開源人工智能引擎的分發(fā)變得幾乎非法。在我看來,這比其他所有潛在的危險都要危險得多。

正如我之前提到的,消費者機器人領域或許在未來十年會迎來大發(fā)展,因為我們可能會擁有足夠智能的人工智能系統(tǒng),能夠理解現(xiàn)實世界是如何運作的。

在之前的云計算領域,我們看到了效率和能耗方面的提升?,F(xiàn)在,整個行業(yè)有巨大的動力和激勵去讓人工智能系統(tǒng)更加高效,所以你不用擔心人們沒有足夠的動力去實現(xiàn)這一點。運行人工智能系統(tǒng)的主要成本就是能耗,所以在這方面有大量的工作要做。但技術就是技術。

Ina:

謝謝,Dava,我們還有一分鐘,進入快速問答環(huán)節(jié)。

Dava:

我來回答三個問題。嗯,我禮貌地拒絕大腦計算機接口的話題,不,它并不是不存在,它正在發(fā)生。

我們已經有了數(shù)字中樞神經系統(tǒng),尤其是在突破性技術領域,尤其是在假肢替代方面。比如半人半機器人的新機械腿,你可以擺脫幻肢的感覺,因為大腦實際上是在控制機器人,所以它正在發(fā)生。我們已經進入半機械人階段,人們植入后正在四處走動。希望未來能讓截癱患者,甚至四肢癱瘓患者受益,大腦控制著數(shù)字中樞神經系統(tǒng),大腦非常強大。所以,關于手術,我很樂意討論這個話題,但這不是未來,這是現(xiàn)在。

在科學方面,我們之前也稍微提到了太空探索。尋找生命,為什么要去外太空探索,因為它告訴我們,這不是選項B。抱歉,埃隆,這不是選項B,而是為了人類的繁榮,讓我們一起珍惜我們的人性和地球上的一切,并與地球和諧共處。但這仍然是必要的,因為當我們?yōu)樘铡⒃虑?、火星、歐羅巴快船等太陽系的極端環(huán)境,甚至是系外行星設計技術時,它推動了技術的發(fā)展,讓我們在技術領域保持敏銳和領先。我對未來十年找到生命或過去生命跡象的證據(jù)非常樂觀。

然后是消費者機器人領域。但如果只是硬件、軟件,機器人應該被視為一個整體的物理系統(tǒng)?,F(xiàn)在,機器人就是人工智能,它們是算法,是軟件。我們最終會達到一個物理和網絡融合的階段,不再區(qū)分硬件和軟件,而是直接談論機器人或機器本身,它們嵌入了軟件。

我最喜歡的用例是醫(yī)療領域,比如推動個性化醫(yī)療,而不是一味地購買更多東西、消費更多。而是回到開源,讓每個人都能自己動手制作、使用,從所有回收材料中去獲取。這就是新的機器人,未來的物理網絡系統(tǒng)。當然它們會交給我們的下一代手中,他們會用它做一些非常奇妙的事情。

Ina:

好吧,這是一個很好的結束點。我們不得不在這里結束。非常感謝麻省理工學院的 Dava Newman、Meta 的 Yann Lecun,以及在場的每一個人,感謝大家的加入。

參考鏈接:https://www.youtube.com/watch?v=MohMBV3cTbg

想了解更多AIGC的內容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2023-10-20 09:54:00

人工智能AI

2022-08-08 09:02:54

Meta聊天機器人智能

2022-07-01 12:42:53

VR新模型元宇宙

2023-06-16 15:23:23

AIChatGPT

2023-12-28 15:18:37

MetaOpenAI

2024-04-03 13:50:00

開源模型

2024-04-19 07:55:57

Llama 3模型人工智能開源

2024-07-19 11:50:28

2023-12-04 10:00:05

Meta人工智能

2023-09-22 11:56:57

模型駕駛

2024-10-23 08:54:07

2024-11-21 13:00:00

2024-04-19 14:52:13

MetaGPT-4模型

2025-04-15 08:00:00

LMArenaLlama 4大模型

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2024-07-30 10:51:51

2015-07-02 16:56:00

程序員能力

2021-10-02 10:36:00

YAML編程語言軟件開發(fā)

2023-06-16 14:10:45

開源人工智能

2024-02-22 17:19:26

谷歌模型PC
點贊
收藏

51CTO技術棧公眾號