Meta楊立昆引燃全民大討論:美政府有些人被洗腦了,監(jiān)管讓開源變得像非法一樣! 原創(chuàng)
編輯 | 言征
出品 | 51CTO技術(shù)棧(微信號:blog51cto)
1月23日,在冬季達沃斯論壇的“辯論技術(shù)”環(huán)節(jié),Meta公司副總裁兼首席人工智能科學家Yann Lecun、麻省理工學院媒體實驗室主任 Dava Newman、Axios首席技術(shù)記者Ina Turpen Fried(主持人)就未來十年前沿科技進行了時長47分鐘的“全民”大討論,話題涵蓋了LLM、智能體、消費機器人、腦機接口、跨物種、太空探索,也討論了非常讓Meta敏感的“技術(shù)作惡”、審查監(jiān)管、開閉源之爭。觀眾們更是抓住機會讓兩位嘉賓抖出了很多猛料。
Lecun表示,現(xiàn)在的大模型并沒有達到預(yù)期效果,在很多方面都存在不足:“我認為當前 LLM范式的保質(zhì)期相當短,可能只有3到5年。”他認為理解物理世界的“世界模型”才是未來,但這可能還需要10年左右的時間。
談及模型存在的偏見問題,Lecun指出,建立一個享有全球共識價值觀的世界大模型不太可能,一種可能是世界上每個地區(qū)、每個利益集團都可以有自己的數(shù)據(jù)中心和數(shù)據(jù)集,并為訓練一個全球模型做出貢獻。
審查監(jiān)管方面,Lecun表示,內(nèi)容政策是公開的,但這并不意味著實施過程沒有問題?!艾F(xiàn)在,我們有機會把它做對?!?/p>
提及外太空探索,Dava認為我們需要認識到世界不是以人類為中心的,火星在35億年前可能就存在過生命。而且生成式生物時代已經(jīng)來臨;對于消費者機器人領(lǐng)域,Dava認為最終機器人會達到一個物理和網(wǎng)絡(luò)融合的階段,不再區(qū)分硬件和軟件。
另外提一點,
馬斯克一直看好的腦機接口,被Lecun上來直接debuff:非侵入式的還好,鉆開大腦這種侵入式的基本沒戲。
以下是精彩摘要,各位先行速覽:
- Meta也犯過錯誤,部署了一個系統(tǒng)后才發(fā)現(xiàn)它沒有按我們預(yù)期的方式運行,于是不得不撤回并用其他系統(tǒng)替代。
- 通用人工智能(AGI),這其實是一個誤稱。
- 我們永遠不會通過僅僅處理文本數(shù)據(jù)來達到人類水平的人工智能。我們需要能夠通過感官數(shù)據(jù)學習世界是如何運作的系統(tǒng),而不僅僅是通過語言。
- 五年之內(nèi),沒有一個頭腦正常的人會再使用它們,至少不會將其作為 AI 系統(tǒng)的核心組件。我認為我們將看到 AI 架構(gòu)的新范式的出現(xiàn),它可能沒有當前 AI 系統(tǒng)的局限性。
- 我們沒有能夠做到貓能做到的事情的機器人——了解貓的物理世界比我們用人工智能所能做的一切要優(yōu)越得多。
- 也許未來十年將是機器人的十年,也許我們將擁有足夠聰明的人工智能系統(tǒng)來理解現(xiàn)實世界是如何運作的。
- 這就是我們正在研究的——讓系統(tǒng)建立世界的心理模型。如果我們的計劃成功了,按照我們希望的時間表,三到五年內(nèi)我們將擁有完全不同范式的系統(tǒng)。他們可能有一定程度的常識。他們可能能夠通過觀察世界并與之互動來了解世界是如何運轉(zhuǎn)的。
- 我覺得政府里有些人被洗腦了,相信了所謂的“存在風險論”,導致出臺了一些實際上適得其反的監(jiān)管措施。因為這些措施本質(zhì)上使得開源人工智能引擎的分發(fā)變得幾乎非法
- 我認為我們需要重新思考:數(shù)據(jù)從哪里來?透明度在哪里?它是否為我們所有人服務(wù)?
- 火星,它可能在35億年前就存在過生命。所以,我們需要一點謙遜,認識到人類并不是一切的中心。
- 我們已經(jīng)進入半機械人階段,人們植入后正在四處走動。
以下是演講過程全文整理:
Ina(主持人):
現(xiàn)在科技領(lǐng)域有太多值得討論的話題了,今天的主題是關(guān)于科技的辯論。我不認為科技本身存在“是”或“不是”的辯論。但在過去25年報道硅谷的經(jīng)歷中,我經(jīng)常聽到有人這樣說:“科技既可以用于好的方面,也可以用于壞的方面”,這本身是正確的,尤其是那些科技的制造者,他們會說:“它會被用于好的方面或壞的方面,希望好的方面能勝過壞的方面?!钡珜ξ襾碚f,這種說法忽視了我們推動、引導和限制科技以使其用于好的方面的責任。
不過,我們稍后會討論這個話題。這是一個令人激動的時刻,尤其是隨著人工智能、機器人技術(shù)和所有這些科技的發(fā)展。但同時,這也是一個令人擔憂的時刻。許多人對這種變化會帶來什么感到擔憂。好了,關(guān)于這個話題,我已經(jīng)說得夠多了。我很高興今天能和Dava Newman一起,他是麻省理工學院媒體實驗室的負責人,還有Yann Lecun,他在Meta領(lǐng)導人工智能研究和其他活動。
Dava,或許你可以先說說你的看法。你有著如此廣泛的科技背景,從你在太空領(lǐng)域的經(jīng)歷,到你現(xiàn)在關(guān)注的領(lǐng)域,你覺得哪些問題和領(lǐng)域需要我們的關(guān)注?你最近在思考什么?謝謝大家,早上好,很高興和大家在一起。
Dava:
我的思緒通常在太空中,你知道的,思考我們是否會成為一個跨物種的文明,我們是否會在其他地方找到生命。但這并不是我最近真正關(guān)注的。我真正思考的是科技以及我們所感受到的顛覆,以及即將到來的、更高級別的顛覆。也許我可以這樣描述,現(xiàn)在我認為我們正處于一個科技超級周期,三種技術(shù)同時融合。你知道工業(yè)革命時,我們一次只引入一種技術(shù),而這次人工智能的出現(xiàn),它雖然是一個大型語言模型,而且仍然處于起步階段。在麻省理工學院媒體實驗室,我們研究人工智能已經(jīng)有50年了?,F(xiàn)在它已經(jīng)普及到每個人的手中,成為一個輔助工具。我相信我們會在稍后的辯論中,和我的同事以及這方面的專家深入討論它。
我想強調(diào)的是,關(guān)于人工智能和生成式人工智能最重要的事情是,我們?yōu)槿祟愒O(shè)計,以人類為中心,促進人類的繁榮。這是媒體實驗室的宗旨。它是否值得信任?它是否負責任?這就是我們的前提。實際上,如果不是這樣,我們是不會做的。但請系好安全帶,因為火箭發(fā)射即將到來。我認為我們很快就會開始討論生成式生物技術(shù),如果你還沒有開始的話。不僅僅是合成生物,而是生成式生物。生物是有機的,所以當人工智能轉(zhuǎn)變?yōu)樯墒缴铮℅en Bio)時,它不再是一個大型語言模型。
實際上,我們現(xiàn)在在媒體實驗室正在研究大型自然模型,它正在吸收生物學、遺傳學和生物傳感器整合在一起。物聯(lián)網(wǎng)(IoT)已經(jīng)很有名了,我們稱之為“萬物互聯(lián)”,因為物聯(lián)網(wǎng)不僅用于海洋監(jiān)測生物多樣性,還用于監(jiān)測陸地、氣候、空氣和大氣等方面。而且從太空測量的氣候變量中,超過一半的數(shù)據(jù)現(xiàn)在都是通過太空測量的。所以,這種技術(shù)的旋風,我不知道還能叫它什么,伴隨著生成式人工智能(Gen AI)、生物傳感器測量一切,最終,我把人類和以人為中心的設(shè)計放在中間,并提出一個前置問題:這是否是為人類繁榮和所有生物的繁榮而有意為之的?
Ina:
如果答案是否定的,那么我們的算法就不應(yīng)該去做這件事。Yann,這是一個很好的切入點,我想聽聽你的看法:我們?nèi)绾未_保我們能夠構(gòu)建的人工智能是我們真正想要的?你如何專注于在Meta的工作和開發(fā),以確保我們得到的人工智能能夠為人類服務(wù)?
Yann:
這有兩個答案。首先,你要努力讓它工作得更好、更可靠。目前我們擁有的生成式人工智能,它還沒有達到我們想要的水平,雖然它非常有用,但我們應(yīng)該推動它,讓它更可靠,讓它能夠適用于更廣泛的領(lǐng)域,但它還沒有達到我們想要的水平,而且它在很多方面并不可控。所以,我認為在未來3到5年內(nèi),我們將看到一種新的AI架構(gòu)的出現(xiàn)。
那么,當前人工智能系統(tǒng)的局限性是什么?有四個對智能行為至關(guān)重要的方面,它們做得并不好。首先是理解物理世界,第二是擁有持久記憶,第三和第四是能夠進行推理和復(fù)雜規(guī)劃。而語言模型在這方面真的無能為力。有一些嘗試試圖在它們的基礎(chǔ)上增加一些功能,讓它們能夠做一點這樣的事情,但最終,這必須以不同的方式來完成。所以,在未來幾年內(nèi),人工智能將迎來另一次革命,我們可能不得不改變它的名字,因為它可能不再是我們今天所理解的生成式人工智能。所以,這是第一點。有些人對它有不同的稱呼。
因此,我們今天擁有的技術(shù),大型語言模型,在處理離散世界方面表現(xiàn)得很好,而語言是離散的。我無意冒犯在場的Stephen Pinker,但語言在某種程度上比理解現(xiàn)實世界簡單得多,這也是為什么我們擁有的人工智能系統(tǒng)能夠通過律師資格考試、解決方程等,做些令人驚嘆的事情。但我們還沒有能夠像貓一樣行動的機器人。貓對物理世界的理解遠遠優(yōu)于我們用人工智能所能做到的一切。這告訴你物理世界比人類語言復(fù)雜得多。
而語言為什么簡單?因為它是離散的對象,DNA和蛋白質(zhì)也是如此,它們是離散的。因此,將這些生成式方法應(yīng)用于這類數(shù)據(jù)取得了巨大的成功,因為在一個離散的世界里進行預(yù)測是很容易的。你可以預(yù)測在特定文本之后可能出現(xiàn)的單詞,但你可以為字典中所有可能的單詞生成一個概率分布,因為它們的數(shù)量是有限的。如果你想將同樣的原則應(yīng)用于理解物理世界,你將不得不訓練一個系統(tǒng)來預(yù)測視頻。
例如,向系統(tǒng)展示一個視頻,要求你預(yù)測接下來會發(fā)生什么,這被證明是一個完全無法解決的任務(wù)。所以,用于大型語言模型的技術(shù)并不適用于視頻預(yù)測,所以我們必須使用新技術(shù),這正是我們在Meta所研究的。但可能需要幾年時間才能實現(xiàn)。
所以,這是第一點。一旦實現(xiàn),它將為人工智能開辟一個全新的應(yīng)用領(lǐng)域,因為我們將擁有能夠推理和規(guī)劃的系統(tǒng),因為它們將擁有某種世界模型,而目前的系統(tǒng)并沒有。所以,它們將能夠預(yù)測其行為的后果,并規(guī)劃一系列行動以實現(xiàn)特定目標,這可能為真正的代理系統(tǒng)打開大門。
我們在談?wù)撟灾餍腿斯ぶ悄?,但沒有人知道如何正確地去做它,這也可以應(yīng)用于機器人技術(shù)。所以,未來十年可能是機器人的十年。這是第一個答案。
第二個答案更簡短一些:確保人工智能被正確應(yīng)用的方法是為人們提供工具,讓他們能夠構(gòu)建多樣化的人工智能系統(tǒng)和助手,這些工具能夠理解世界上所有的語言、文化、價值觀等。這只能通過開源平臺來實現(xiàn)。我堅信,隨著人工智能行業(yè)和生態(tài)系統(tǒng)的不斷發(fā)展,開源基礎(chǔ)模型將主導專有系統(tǒng),它們將成為整個行業(yè)的基礎(chǔ),至少在某種程度上已經(jīng)如此。它們將促進真正多樣化的人工智能系統(tǒng)的發(fā)展,我認為這是至關(guān)重要的。因為在幾年內(nèi),你和我都會戴上智能眼鏡,對吧?你可以與人工智能助手交談,向它提問。但很快,我們會有越來越多的東西帶有顯示屏,所有的一切。我們的所有數(shù)字消費都將由人工智能助手介導。所以,如果我們只能接觸到來自美國西海岸或中國少數(shù)幾家公司的三四個助手,這對文化多樣性、民主等都是不利的。因此,我們需要一個非常多樣化的人工智能系統(tǒng),而這一切只能通過開源來實現(xiàn),這也是Meta一直在推動的。
Ina:
好的,謝謝你們兩位。我認為這為討論奠定了良好的基礎(chǔ),并且提醒一下,這不是小組討論,而是一場市民大會。
首先,我們問了直播觀眾一個問題,他們可以通過Slido平臺參與進來。我們也問了大家,希望這些新興技術(shù)如何為未來做出貢獻。我們不會展示所有的回答,但這里有一個詞云,顯示了大家提到的一些內(nèi)容。
我們可以快速看一下……嗯,這是問題。我不太確定我們?nèi)绾蔚贸龃鸢?。新技術(shù)就像一塊白板,對吧?我相信大家一定討論了很多他們術(shù)既感到興奮又感到擔憂的地方。我想請大家準備好問題,我相信房間里每個人都有要問的問題。
Yann,我想繼續(xù)剛才關(guān)于開源的問題,因為這確實是一個很大的爭論。正如我所說,技術(shù)本身并不是爭論的焦點,而是我們采取的方法。開源確實有你提到的所有優(yōu)勢,它可以讓世界各地的人參與進來。只有少數(shù)人能夠訓練這些巨大的模型,但很多人都可以利用它們,并同時做出貢獻。然而,真正令人擔憂的是,將這種強大的技術(shù)交給世界,并說“基本上,這是我們的可接受使用政策,這是你可以做和不能做的事情”,但老實說,一旦它被發(fā)布出去,就很難再加以管控了。我們?nèi)绾未_保某件事情既開源又安全呢?
Yann:
所以,我們在Meta所做的是,當我們分發(fā)一個模型時,順便說一下,我們說開源,但從技術(shù)上講,這些模型并不是真正的開源,因為模型的源代碼是可用的,模型的權(quán)重也是免費提供的,你可以用它們做任何你想做的事情,除了那些限制條款。不要用它來做危險的事情。所以,我們所做的是對這些系統(tǒng)進行微調(diào),并進行紅隊測試,以確保至少在第一階段,它們不會產(chǎn)生無意義的或有毒的答案之類的東西,但這種方法的效果是有限的。這些系統(tǒng)可能會被繞過。你可以通過所謂的提示注入攻擊,將系統(tǒng)帶出其被微調(diào)的領(lǐng)域,然后你就會得到一些奇怪的東西,這取決于模型的預(yù)訓練數(shù)據(jù)是什么,當然,這是一個高質(zhì)量數(shù)據(jù)和不太高質(zhì)量數(shù)據(jù)的組合。
Ina:
那么,Dava你對這種開源方式的看法是什么?顯然,這種方式有好處,麻省理工學院是開源的先鋒,甚至有一個MIT開源許可,我甚至不記得它是否就是Meta所使用的許可。但當你談到讓技術(shù)以人為本,把人類的需求和關(guān)切放在首位時,你認為需要做些什么呢?你提到了合成生物學,顯然還有很多被忽視的疾病,我們希望用這些新技術(shù)來解決,但我們不希望每個人都在家里開發(fā)新的微生物并到處傳播。那么,你對如何讓這種技術(shù)廣泛可用但仍然安全有什么看法呢?
Dava:
是的,這是一個問題,同時我也看到了大家的擔憂。關(guān)于人工智能在太空中的應(yīng)用,我同意這一點,我們可以稍后討論詞云。所以,基于開源平臺,但要設(shè)置一些限制,我們所有人都需要承擔責任?,F(xiàn)在,我們可以問一下觀眾,人工智能是否對你有用?我的意思是,你是否信任它?它是否負責任?它是否代表了你?你認為它的訓練數(shù)據(jù)是否能很好地代表你?
讓我們問一下觀眾,有多少人覺得它安全、可靠,并且你愿意今天就去使用它?在辯論期間,有人愿意舉手嗎?我想這就是答案。
我認為問題不在于有多少人愿意開放地接受人工智能,或者一旦他們覺得它安全可靠就愿意去使用它,而是它還沒有達到那個程度。它并不具有代表性,不能代表這個房間里每個人的觀點,更不用說整個世界了,因為世界比我們在這個房間里看到的要多樣化得多。
所以,這也許就是辯論的起點。我們希望開源,希望所有的學生都能成為超級明星和天才,希望下一代人都能發(fā)揮他們的創(chuàng)造力和好奇心,因為這就是人類繁榮的方式。
但如果我們只是讓算法自行其是,我認為我們需要重新思考:數(shù)據(jù)從哪里來?透明度在哪里?它是否為我們所有人服務(wù)?如果這些問題能夠得到很好的回答,我相信大多數(shù)人會選擇加入,并且希望讓事情變得更好。開源的目的是為了匯聚所有好的想法,讓技術(shù)為每個人服務(wù)。但我覺得我們在這里需要非常明確地指出:透明度在哪里?信任在哪里?它是否已經(jīng)脫離了我們的掌控?這些都是非常重要的問題。而開源的原因在于,你可以匯聚所有的好想法并加以改進。
Ina:
Yann,我想再追問你一個問題,然后我真的希望你們都準備好問題,因為接下來我會轉(zhuǎn)向你們。我想再追問一個領(lǐng)域,那就是價值觀。
我去年寫過關(guān)于這個話題的文章,社交媒體一直圍繞內(nèi)容審核展開——允許什么樣的言論,以及如何劃定界限。顯然,Meta在這方面投入了大量時間,也嘗試了不同的方法。但在我看來,這些人工智能系統(tǒng)將不得不具備價值觀。你的個人電腦并沒有一套價值觀,你的智能手機也不會進行內(nèi)容審核。但在極端情況下,人工智能系統(tǒng)需要回答一些棘手的問題。
在一個世界中,中東地區(qū)的人們與美國人的價值觀不同,美國不同地區(qū)的人們價值觀也不同。最近,Meta對其內(nèi)容審核政策進行了多項調(diào)整,允許更多可能被認為非常冒犯性、令人反感甚至去人性化的言論。
那么,科技公司在價值觀方面的作用是什么?政府會施加多大的壓力來控制人工智能聊天機器人對性別、性取向、人權(quán)等問題的回答?
Yann:
這是一個有趣的話題,盡管這并非我的專業(yè)領(lǐng)域,但仍然很有趣。Meta在內(nèi)容審核方面經(jīng)歷了幾個階段,包括不僅針對有毒內(nèi)容,還有虛假信息,這是一個更難處理的問題。直到2017年,檢測社交網(wǎng)絡(luò)上的仇恨言論還非常困難,因為技術(shù)尚未成熟。依靠用戶標記不當內(nèi)容,然后由人工進行審核,這種方法無法擴展,尤其是如果需要這些人工審核員掌握世界上每一種語言。
然后,自然語言理解領(lǐng)域取得了巨大進步,從2017年開始,這一領(lǐng)域取得了巨大的進展。如今,檢測世界上每一種語言的仇恨言論在一定程度上是可行的。例如,2017年底,大約20%到25%的仇恨言論是通過人工智能系統(tǒng)自動刪除的。五年后的今天,由于有了Transformer、監(jiān)督學習以及我們今天為之興奮的所有技術(shù),這一比例達到了96%。
這可能走得太遠了,因為被誤刪除的良好內(nèi)容數(shù)量可能相當高。
在一些國家,人們彼此之間存在敵意,你可能需要將檢測閾值調(diào)低,以避免沖突。而在一些國家,選舉期間可能會引發(fā)緊張局勢,你也會希望降低檢測閾值,以便刪除更多內(nèi)容以平息局勢。但大多數(shù)時候,你希望人們能夠就重要的社會問題展開辯論,包括那些極具爭議性的問題,比如性別和政治觀點等極端問題。
所以,公司最近意識到它可能走得太遠了,出現(xiàn)了太多誤報。現(xiàn)在,檢測閾值將被調(diào)整,以允許就社會的重大問題展開討論,即使這些話題可能對某些人來說是冒犯性的。這是一個重大變化,但這并不意味著內(nèi)容審核將消失,只是調(diào)整了閾值。
當然,不同國家的答案也不同。在歐洲,仇恨言論是非法的,宣傳也是非法的。你出于法律原因必須進行內(nèi)容審核,而在美國和一些其他國家,標準則不同。
然后還有虛假信息的問題。直到現(xiàn)在,Meta一直依賴事實核查組織來核查那些引起廣泛關(guān)注的帖子。但事實證明,這個系統(tǒng)并不奏效,它無法擴展。這些組織數(shù)量有限,員工也很少,因此無法揭穿在社交網(wǎng)絡(luò)上流傳的每一個危險的虛假信息。
所以,目前正在實施的系統(tǒng)是,讓人們自己對有爭議的帖子進行評論。這可能會有更好的覆蓋效果。一些研究表明,這是一種更好的內(nèi)容審核方式,特別是如果你有一個類似“積分”系統(tǒng),那些發(fā)表可靠評論或者受他人喜歡的人,他們的評論會被提升。許多論壇多年來一直在使用這種系統(tǒng)。所以,對于Meta來說,我們希望這能真正奏效。它還有一個很大的優(yōu)勢,那就是Meta從未認為自己有資格決定什么是社會的對與錯。
在過去,Meta曾要求各國政府來規(guī)范社交媒體上可接受的內(nèi)容,這發(fā)生在特朗普政府時期。當時,我們問美國政府,什么內(nèi)容是在線討論中可以接受的,結(jié)果卻石沉大海,沒有得到任何回應(yīng)。我想法國政府可能有一些討論,但當時的特朗普政府卻說:“第一修正案在這里,你們自己看著辦吧。”因此,所有這些政策都是由于缺乏監(jiān)管環(huán)境而產(chǎn)生的?,F(xiàn)在,內(nèi)容審核變成了“人民的內(nèi)容審核”,我們還可以深入討論很多,但我也不想偏離主題。
如果能回到價值觀的問題上,我認為這是正確的問題。我們首先需要明確價值觀是什么,領(lǐng)導者必須能夠清晰地表達價值觀。對我來說,我的價值觀是正直、卓越、好奇心,以及社區(qū)——社區(qū)包括歸屬感和協(xié)作。如果我們能夠表達這些價值觀,那么作為設(shè)計師、建造者和技術(shù)人員,我們就可以從這些價值觀出發(fā),做出正確的選擇。如果我們做對了,我認為我們需要退一步,明確我們的價值觀是否一致,然后我們才能合作,共同尊重我們文化上的差異,以及人類的多樣性。這是非常美好的,這也是跨文化合作的機遇。但從根本上說,我們?nèi)匀恍枰懻搩r值觀,我們是否共享價值觀,這是我認為的核心問題。
從這個意義上說,內(nèi)容政策是公開的,但這只是第一步。接下來是實施。Meta也犯過錯誤,部署了一個系統(tǒng)后才發(fā)現(xiàn)它沒有按我們預(yù)期的方式運行,于是不得不撤回并用其他系統(tǒng)替代。這是一個不斷調(diào)整的過程。但你可以引領(lǐng)行業(yè),積極地參與這場討論。從所有指標來看,Meta在內(nèi)容審核方面絕對是領(lǐng)先的。
Ina:
那么,我的問題是,你對新政策有什么看法?顯然,很難說什么是共同的價值觀,即使在美國國內(nèi)也有很多爭論。我們談到了以人為中心的世界,而新政策顯然允許了很多去人性化的言論,比如將女性比作物品,或者對跨性別者、精神疾病患者等群體的不當言論。他們是否找到了平衡,還是說這些政策并不合適?
Dava:
絕對沒有,絕對沒有。我們知道什么是錯誤的,我們了解人類行為,我們知道什么是文明的,我們知道什么能讓人感到快樂。當我們教育孩子時,我們也應(yīng)該看看我們的孩子和年輕一代,尤其是當我們談?wù)搩r值觀和我們所擁有的東西,以及我們希望成為什么樣的人時。
當然,這些價值觀需要被表達出來。從這個意義上說,內(nèi)容政策是公開的,但這并不意味著實施過程沒有問題。我們有機會做對。但你知道,我們已經(jīng)進行了實驗,互聯(lián)網(wǎng)一代、互聯(lián)網(wǎng)二代,現(xiàn)在是機會做對的時候了。
Ina:
我想邀請觀眾加入我們的討論,如果你有話要說,請先報上你的名字和來自哪里。麥克風正在傳過來,但請簡短介紹自己后直接提問。
觀眾:
我是來自印度班加羅爾的Mukesh。你們的團隊處于人工智能研究的前沿,世界上也有許多其他團隊也是如此。我們是否知道我們正走向何方?有沒有一個關(guān)于五年后的心理模型?因為我們都在猜測和討論人工智能的現(xiàn)狀和挑戰(zhàn),等等。我們是否足夠了解我們正走向何方,能否對五年后做出一些預(yù)測,還是說這只是一個未知數(shù)?
Yann:
我不能聲稱我了解其他人正在做什么,尤其是那些不公開研究的團隊。但我從我所看到的情況來看,我認為當前的大型語言模型范式的使用壽命相當短,可能只有3到5年。我認為在五年內(nèi),沒有人會再使用它們,至少不會將它們作為人工智能系統(tǒng)的核心組件。
它們可能具有一些常識,能夠通過觀察世界來學習世界是如何運作的,并與之互動,處理現(xiàn)實世界的問題,而不僅僅是離散世界的問題,這將為新的應(yīng)用打開大門。
讓我給你做一個非常有趣的計算:一個典型的大型語言模型,比如擁有20萬億或30萬億個token的基礎(chǔ)模型。一個token通常包含3個字節(jié),所以這大約是10的14次方字節(jié)。我們將其四舍五入,這基本上涵蓋了互聯(lián)網(wǎng)上所有公開可用的文本。一個人類需要10萬年才能讀完這些內(nèi)容。
現(xiàn)在,讓我們將這個與一個4歲孩子在4年生活中所看到的內(nèi)容進行比較。你可以計算出視覺皮層或通過觸覺(如果是盲人的話)所接收到的信息量,大約是每秒2MB,每根視神經(jīng)大約是每秒1MB,每根視神經(jīng)纖維大約是每秒1字節(jié)。我們每只眼睛有100萬根視神經(jīng)纖維。將這個乘以4年。一個人類孩子在4年中清醒的時間總共是16000小時。計算一下這有多少字節(jié),大約是10的14次方。
這告訴我們,我們永遠不會通過僅僅處理文本數(shù)據(jù)來達到人類水平的人工智能,有些人稱之為通用人工智能(AGI),但這其實是一個誤稱。我們永遠不會通過僅僅處理文本數(shù)據(jù)來達到人類水平的人工智能。我們需要能夠通過感官數(shù)據(jù)學習世界是如何運作的系統(tǒng),而不僅僅是通過語言。
Dava:
我們永遠不會達到人類水平的人工智能,因為人類的輸入是多感官的。你戴上眼鏡后,你看到的是文字,但我們還有觸覺、聽覺、嗅覺等。今天早上,你聞到的第一件事物是什么?可能是咖啡的香味。這些多感官能力對于人類來說至關(guān)重要。我想明確一點,我們談?wù)摰氖侨祟惖姆睒s,以及所有生命的繁榮。我們可以選擇我們的方向,我們可以選擇我們?yōu)檎l設(shè)計。
這是一個問題,我們在這個星球上待了多久?地球不需要我們,你知道嗎?地球已經(jīng)有45億年的歷史了,我們還有一個姐妹星球——火星,它可能在35億年前就存在過生命。所以,我們需要一點謙遜,認識到人類并不是一切的中心。地球可以沒有人類而繼續(xù)存在,我們可能只是個麻煩,一個很大的麻煩。所以,地球不需要我們,但我們需要地球。問題是,我們是否希望與地球和諧共存?我們是否希望過上最好的生活并實現(xiàn)繁榮?然后,你就會從不同的角度去思考解決方案。
Ina:
你從不同的角度去思考問題。我想我聽到那邊有人想發(fā)言。我看到有人舉手了。好的,麥克風正在傳過去。因為我們在直播,所以請先介紹自己。
觀眾:
Moris Band,來自Light Speed,向Dava提問。剛才你談到人工智能,談到人類生命,我很高興你在努力讓人類成為多星球物種。那么,人工智能在這種更廣泛的需求中處于什么位置呢?你認為它是存在的威脅嗎?還是說它是一種增強人類存在的技術(shù)?例如,生成式生物技術(shù)是不是我們的“大過濾器”?
Dava:
謝謝你的問題。我認為人類才是威脅,而不是 AI或算法。當我們談?wù)撎罩袑ふ疑鼤r,AI 是一個巨大的幫助。所以,當你提到 AI 沒有什么用處時,這有點像說技術(shù)本身沒有用處。我們需要更具體地討論。
當我們談?wù)撎仗剿鲿r,人類在地球上,我們發(fā)送探測器和科學儀器,這與自主機器人和自主系統(tǒng)有很大關(guān)系,而不是人類在這里獲取信息,而是那個信息感知和探索的循環(huán)。但這些都是我們將要發(fā)送的自主機器人和系統(tǒng)。當我們發(fā)送人類時,我們會帶著自己的超級計算機,所以第一次載人火星任務(wù)將超越我們目前50年在火星上的探索。這就是人類或人類智慧的優(yōu)勢。
但這是一個很好的問題,它既是一種威脅,也是一種優(yōu)勢,我們可以利用它來增強能力,進行搜索和探索。比如,我可以專注于尋找生物標志的證據(jù)或在其他地方尋找生命。不過當我們專注于任務(wù)時,要非常透明地說明你如何使用算法和人工智能。我們總是引入一些在大多數(shù)基礎(chǔ)模型開發(fā)中非常缺乏的東西。
你深入到更基礎(chǔ)的模型,具體到健康、氣候或探索等個性化能力時,你必須引入物理學。如果你只是讓事情按照數(shù)學和統(tǒng)計學的方式發(fā)展,看看我們現(xiàn)在所處的位置,雖然這非常棒,但我是一個堅定的生物模仿論者,我試圖理解自然,試圖理解生命系統(tǒng),總是將基礎(chǔ)物理學與數(shù)學結(jié)合起來。所以,要沿著這條道路繼續(xù)前進。
Ina:
所以,當我們繼續(xù)這里的討論時,我也邀請在線的觀眾參與。我們有一個問題想問大家:關(guān)于我們正在討論的技術(shù),什么讓你感到興奮?什么讓你感到擔憂?我們可以通過 Slido 再做一個詞云分析。如果你正在在線觀看,請在那里分享你的想法。
我們還有一個問題,正在傳麥克風過來。這位是Martina Hirayama,瑞士教育、研究與創(chuàng)新國務(wù)秘書。
觀眾:
我的問題提給Dava。你談到人工智能的價值觀,我們在獲取人工智能方面存在分歧,那么,如果我們考慮到我們在地球上生活的所有地區(qū),甚至還沒有談到太空,我們并沒有共享相同的價值觀,這將對AI的發(fā)展產(chǎn)生什么影響呢?
Dava:
是的,我認為這是非?;A(chǔ)的問題。我列出的五六個價值觀,我希望能就當中的兩到三個價值觀達成共識。你可能不會同意整個清單,但我認為我們必須尋找共識和共享的價值觀,然后共同努力。如果做不到,那么也許這就是威脅、分裂和毀滅的場景。我不希望走這條路,我認為我們有另一條路可走。所以,我認為艱巨的工作是努力讓人與人之間、政策與政策之間達成共識,看看我們是否能夠就某些未來場景達成一致。如果能夠達成一些共識,我們可以進行投票,看看在這個多元化的環(huán)境中我們是否能夠找到共同點。所以,這不是一個答案,而是討論的一部分:我們能共享什么,如何找到共同點,并以此為基礎(chǔ)去正確地構(gòu)建系統(tǒng)。
Ina:
Yann,這是構(gòu)建這些系統(tǒng)的挑戰(zhàn),因為世界上存在如此多的分歧。我希望我們至少能在一些基本問題上達成一致,盡管看起來很難達成。我知道你提到過使用聯(lián)邦學習,以確保世界上各種文化都能在這些模型中得到體現(xiàn)。但當人工智能系統(tǒng)不僅僅是用來審核內(nèi)容,而是要創(chuàng)造內(nèi)容時,我們該如何為一個充滿分歧的世界構(gòu)建系統(tǒng)呢?
Yann:
我認為答案在于多樣性。如果你有兩三個都來自同一個地方的人工智能系統(tǒng),你就無法獲得多樣性。獲得多樣性的唯一方法是擁有能夠涵蓋世界上所有語言、文化和觀點的系統(tǒng),這些是基礎(chǔ)模型,然后它們可以由大量不同的人進行微調(diào),這些人對什么是好的價值觀有不同的看法。然后人們可以選擇。這和擁有一個多樣化的媒體一樣,你需要媒體中有不同的觀點,至少這是民主的基本要素。對于人工智能系統(tǒng)來說也是如此,你需要它們是多樣化的。
讓一個單一實體去訓練一個包含世界上所有文化數(shù)據(jù)的基礎(chǔ)模型是非常困難的,這可能最終需要以聯(lián)邦或分布式的方式完成。所以,一種方法是,世界上每個地區(qū)、每個利益集團都可以有自己的數(shù)據(jù)中心和數(shù)據(jù)集,并為訓練一個全球模型做出貢獻。這個全球模型最終可能成為人類所有知識的存儲庫。
Ina:
我看到有人舉手了,等麥克風傳過來,謝謝。
Dava:
我覺得聯(lián)邦學習這種方式更令人興奮,因為它更透明,也更定制化、更個性化。它可以根據(jù)具體的工作目標,比如醫(yī)學或健康領(lǐng)域,甚至更具體的目標,比如乳腺癌研究,提供更精確的解決方案。對我來說,這非常令人興奮。
觀眾:
嗨,我是 Mukta Joshi,來自倫敦。我昨天聽了一個小組討論,他們提到了一個讓我感到震驚的概念,我回去做了一些研究。這個概念叫做“對齊偽裝”(alignment faking),即大型語言模型給出的答案似乎是在偽裝與提問者的的意圖對齊。這可能是一個在過去幾個月里發(fā)生的實驗,但我認為這是一個非常令人震驚的現(xiàn)象,我想聽聽你對這個問題的看法。
Yann:
我對這個問題有一個可能有點爭議的看法,那就是在某種程度上,大型語言模型本質(zhì)上是不安全的,因為它們是不可控的。你沒有直接的方法來控制它們輸出的內(nèi)容是否符合某些特性。至于護欄(guardrails),唯一的辦法是通過訓練來實現(xiàn),但這種訓練可能會因為超出它們被訓練的領(lǐng)域而被破壞。所以,從某種程度上說,它們是不安全的。
但這并不特別危險,因為它們也不夠聰明。它們是有用的,但從智力上來說,它們更像是智能助手。你知道,如果它們生成的文本中有錯誤,你需要去檢查并糾正一些錯誤。這有點像汽車的駕駛輔助系統(tǒng),我們還沒有完全自動駕駛的汽車,但我們有駕駛輔助系統(tǒng),它運行得很好。
同樣的,我們不應(yīng)該過度解讀大型語言模型的能力,好像它們能夠偽裝意圖——它們根本沒有任何意圖,也沒有價值觀。就像我說的,它們不會和我們在一起超過五年,我們會擁有更好的系統(tǒng),這些系統(tǒng)是目標驅(qū)動的,它們的輸出將通過推理產(chǎn)生,而這種推理將保證輸出的內(nèi)容符合某些護欄。這些系統(tǒng)將無法被“越獄”,因為這些護欄將被硬編碼進去,所以通過改變提示(prompt)來破解它們是不可能的。
Ina:
所以,鑒于 Yan 剛才所說的話,今年的熱門話題是“代理”(agents),并賦予這些大型語言模型更多的自主性。
考慮到Y(jié)an提到的它們的局限性,而Meta這家公司正在開發(fā)這樣的技術(shù),我們是否應(yīng)該擔心賦予一個沒有價值觀、會犯錯誤的系統(tǒng)更多的自主性和代理權(quán)呢?
Dava我認為不需要擔心,我同意Yan說的,這些模型并不聰明,它們沒有理性,也沒有意圖。它們只是缺乏思考能力,你可以把它們看作是數(shù)學和統(tǒng)計學的概率模型。所以,我們更關(guān)心的是人類的判斷力。問題是,這聽起來似乎很令人警惕,因為任何類型的偽裝都是令人擔憂的。那么,我們該怎么辦呢?
因為代理(agents)正在變得越來越強大。我不知道是否有解決方案,但有一些簡單的想法可以嘗試。比如,我們可以用版權(quán)之類的東西。如果每次我們使用生成式模型時,都能有一個水印,為什么我們不給生成的內(nèi)容添加水印,讓用戶知道它是否來自算法呢?只是簡單地標注一下,讓用戶知道他們看到的內(nèi)容是生成式的,這會很有幫助。如果這些內(nèi)容被提供給某人,他們可以自己判斷。
我想從另一個角度來討論這個問題。我發(fā)表過一篇關(guān)于“如何通過機器學習解鎖創(chuàng)造力”的論文。這種生成能力可以幫助我們進行頭腦風暴,生成一些想法。對我來說,生成圖像比生成文本更有用,因為圖像與人類大腦的映射幾乎完美,我們在視覺方面非常擅長。所以,當你說出一個句子,比如“那是什么圖像?”時,我們可以進行一場很好的討論,這將幫助我們更有創(chuàng)造力,有更多的討論。如果它只是作為一個提示,那么它就是一個工具。然而它真的是一個助手,幫助我們進行對話或辯論。我認為它確實應(yīng)該被標記,我們必須知道它來自哪里,必須知道配方中的成分。
Ina:
很難相信我們只剩下幾分鐘了,我想給每個人一個機會,說說我們還沒有談到的、但應(yīng)該討論的話題,也許明年我們會談到。
Yann:
好的,按照我們這里的名單,首先是讓你最興奮的技術(shù)——腦機接口(brain-computer interface)。別想了,這不會很快發(fā)生,至少那種侵入式的、Neuralink正在研究的類型不會。非侵入式的,比如M公司正在研究的腦電圖手環(huán),是的,今年會有一些進展,這確實令人興奮。但像鉆開大腦這種事,除非是出于臨床目的,否則不會。
嗯,游戲、虛擬世界、元宇宙,Meta 當然在這個領(lǐng)域非常活躍,比如在元宇宙探索方面。你是這方面的專家,這也很令人興奮。
監(jiān)管,這是一個非常有趣的話題。我覺得政府里有些人被洗腦了,相信了所謂的“存在風險論”,導致出臺了一些實際上適得其反的監(jiān)管措施。因為這些措施本質(zhì)上使得開源人工智能引擎的分發(fā)變得幾乎非法。在我看來,這比其他所有潛在的危險都要危險得多。
正如我之前提到的,消費者機器人領(lǐng)域或許在未來十年會迎來大發(fā)展,因為我們可能會擁有足夠智能的人工智能系統(tǒng),能夠理解現(xiàn)實世界是如何運作的。
在之前的云計算領(lǐng)域,我們看到了效率和能耗方面的提升?,F(xiàn)在,整個行業(yè)有巨大的動力和激勵去讓人工智能系統(tǒng)更加高效,所以你不用擔心人們沒有足夠的動力去實現(xiàn)這一點。運行人工智能系統(tǒng)的主要成本就是能耗,所以在這方面有大量的工作要做。但技術(shù)就是技術(shù)。
Ina:
謝謝,Dava,我們還有一分鐘,進入快速問答環(huán)節(jié)。
Dava:
我來回答三個問題。嗯,我禮貌地拒絕大腦計算機接口的話題,不,它并不是不存在,它正在發(fā)生。
我們已經(jīng)有了數(shù)字中樞神經(jīng)系統(tǒng),尤其是在突破性技術(shù)領(lǐng)域,尤其是在假肢替代方面。比如半人半機器人的新機械腿,你可以擺脫幻肢的感覺,因為大腦實際上是在控制機器人,所以它正在發(fā)生。我們已經(jīng)進入半機械人階段,人們植入后正在四處走動。希望未來能讓截癱患者,甚至四肢癱瘓患者受益,大腦控制著數(shù)字中樞神經(jīng)系統(tǒng),大腦非常強大。所以,關(guān)于手術(shù),我很樂意討論這個話題,但這不是未來,這是現(xiàn)在。
在科學方面,我們之前也稍微提到了太空探索。尋找生命,為什么要去外太空探索,因為它告訴我們,這不是選項B。抱歉,埃隆,這不是選項B,而是為了人類的繁榮,讓我們一起珍惜我們的人性和地球上的一切,并與地球和諧共處。但這仍然是必要的,因為當我們?yōu)樘铡⒃虑?、火星、歐羅巴快船等太陽系的極端環(huán)境,甚至是系外行星設(shè)計技術(shù)時,它推動了技術(shù)的發(fā)展,讓我們在技術(shù)領(lǐng)域保持敏銳和領(lǐng)先。我對未來十年找到生命或過去生命跡象的證據(jù)非常樂觀。
然后是消費者機器人領(lǐng)域。但如果只是硬件、軟件,機器人應(yīng)該被視為一個整體的物理系統(tǒng)?,F(xiàn)在,機器人就是人工智能,它們是算法,是軟件。我們最終會達到一個物理和網(wǎng)絡(luò)融合的階段,不再區(qū)分硬件和軟件,而是直接談?wù)摍C器人或機器本身,它們嵌入了軟件。
我最喜歡的用例是醫(yī)療領(lǐng)域,比如推動個性化醫(yī)療,而不是一味地購買更多東西、消費更多。而是回到開源,讓每個人都能自己動手制作、使用,從所有回收材料中去獲取。這就是新的機器人,未來的物理網(wǎng)絡(luò)系統(tǒng)。當然它們會交給我們的下一代手中,他們會用它做一些非常奇妙的事情。
Ina:
好吧,這是一個很好的結(jié)束點。我們不得不在這里結(jié)束。非常感謝麻省理工學院的 Dava Newman、Meta 的 Yann Lecun,以及在場的每一個人,感謝大家的加入。
參考鏈接:??https://www.youtube.com/watch?v=MohMBV3cTbg??
本文轉(zhuǎn)載自??51CTO技術(shù)棧??,作者:? 言征
