AGI前夜的思考:2025年將出現(xiàn)真正的AI智能體,年輕人需要快速適應(yīng)
2025 新年將至。對于新的一年和未來幾年,你對 AI 領(lǐng)域有什么期待和設(shè)想呢?你是否認(rèn)為 AGI 將要實現(xiàn)了而人類社會的一切都將因之而改變。
創(chuàng)業(yè)公司 Exa 的 CEO Will Bryk 在 X 上發(fā)了一篇長文,以「AGI 前夜的思考」為題,詳細(xì)闡述了他對 o3 模型的看法、對未來幾年的預(yù)測以及 AI 領(lǐng)域面臨的主要挑戰(zhàn)和風(fēng)險。之后,他還給年輕人提出了一些建議,以幫助他們?yōu)椴豢杀苊獾?AI 時代做好準(zhǔn)備。
這篇文章啟發(fā)了不少討論和深度思考:
針對此文,網(wǎng)友們也有很多的好奇,一個關(guān)鍵問題是:畢竟 o3 在高計算量模式下每個任務(wù)的成本達(dá)到了數(shù)千美元。
答案也很簡潔:Money is all you need!
接下來,讓我們看看 Will Bryk 這篇充滿未來主義的文章究竟說了什么以及預(yù)言了一個怎樣的未來。
AGI 前夜的思考
o3 本不應(yīng)該讓人震驚。OpenAI 在 2 個月前就已經(jīng)放出了測試時間擴(kuò)展圖,而計算機(jī)的發(fā)展歷史已經(jīng)告訴我們應(yīng)該相信趨勢線,不管這個趨勢多么令人難以置信。真正令人震驚的是這才不過 2 個月時間。2 個月,本科水平的 AI 就進(jìn)化成了博士水平的 AI。在人類看來,變化激動人心,但快速變化則會讓人震驚。
接下來會發(fā)生什么是顯而易見的。任何任務(wù),只要能夠定義其獎勵函數(shù),o3 這樣的模型都能非常尤其特別(reeeaally)擅長對其進(jìn)行優(yōu)化。數(shù)學(xué)和編程都是非常容易設(shè)計獎勵函數(shù)的任務(wù)。寫小說要難點。
所以這意味著在短期內(nèi)(1 年),就會出現(xiàn)尖峰模型。它們在數(shù)學(xué)、編碼和一般推理方面基本上能達(dá)到 AGI 級別,但寫的小說還很普通。盡管更好的推理能力能讓這些模型整體上給人更聰明的感覺,但對于它們沒有針對性強(qiáng)化學(xué)習(xí)過的任務(wù)(即未在其訓(xùn)練數(shù)據(jù)中),它們?nèi)匀粫 ?/span>
當(dāng)時間拉到更長范圍(1-3 年),我們會不斷為其增加新的訓(xùn)練領(lǐng)域(情緒數(shù)據(jù)、感官數(shù)據(jù)等),直到補(bǔ)齊各個盲點。此時,這些模型顯然就是 AGI 了 —— 可能 Gary Marcus 不會這樣想。
Gary Marcus 是 AGI 即將實現(xiàn)論的強(qiáng)烈反對者
智能體將在 2025 年真正到來。o3 這樣的模型沒有道理不能使用瀏覽器 / 應(yīng)用程序。這類任務(wù)的獎勵模型很容易設(shè)計。自動化計算機(jī)工作也是一個巨大的市場,因此對于需要說明其巨額開支用途的實驗室來說,這能提供巨大的激勵。我猜想,到 2025 年 12 月,你就能讓你的計算機(jī)完成各種工作流程了,不管是瀏覽網(wǎng)頁 / 應(yīng)用,還是搬運(yùn)數(shù)據(jù)。
AI 將會給哪些工作造成重大影響?
在各種知識類工作中,受影響最大的可能是數(shù)學(xué)家。數(shù)學(xué)家的工作領(lǐng)域范圍是符號空間。他們的工作與物理世界幾乎沒有聯(lián)系,因此不會受到物理世界的阻礙。LLM 是符號空間之王。數(shù)學(xué)其實并不難,靈長類動物只是不擅長而已。正則表達(dá)式也是一樣。
OpenAI 的 o3 模型在數(shù)學(xué)和科學(xué)基準(zhǔn)上都表現(xiàn)非常出色
一個大問題是制作研究級合成數(shù)據(jù)很難。我猜也沒那么難。博士級數(shù)學(xué)和研究員級數(shù)學(xué)在我們看來在質(zhì)量上有所不同,但在 AI 看來可能是一樣的,只是需要更多數(shù)量級的強(qiáng)化學(xué)習(xí)。
我給數(shù)學(xué)家 700 天時間。(這聽起來很瘋狂,但如果說 o6 還不能打敗數(shù)學(xué)家,聽起來同樣瘋狂;所以我對這個預(yù)測的把握超過一半,就像這篇文章中的所有其他預(yù)測一樣)。還有 700 天,人類就不再是已知宇宙中數(shù)學(xué)領(lǐng)域的頂尖群體了。
我們軟件工程師呢?短期內(nèi),AI 將助益軟件工程師。每位軟件工程師都能晉升為技術(shù)主管,很不錯。在那些完全采用 LLM 的人看來,到 2025 年底,編程將更像是編排一堆小任務(wù)再讓小智能體去執(zhí)行。
任何有明確規(guī)范的 PR(拉取請求)都可由 o4 系統(tǒng)完成,并且錯誤率也小得可以接受。不過,也有個問題:上下文窗口太小,無法裝下一個代碼庫,但 Sam 這樣的領(lǐng)導(dǎo)者也很清楚這一點。
AI 自動化將很快接替所有人類軟件工程師嗎?并不會。軟件工程不只是基于明確清晰的提示詞做 PR。不同于數(shù)學(xué)家,軟件工程師需要不斷與物理世界(也就是其他人)互動。工程師必須與客戶和團(tuán)隊合作,才能理解他們的需求。當(dāng)工程師設(shè)計架構(gòu)或編寫代碼時,會涉及到大量有關(guān)組織的上下文知識。o4 將無法做到這一點。但是 o4 將幫助有上下文的工程師提速 10 倍以上。
如果軟件工程師提速 10 倍了,那么就會需要更少的軟件工程師嗎?嗯,如果說的是一家具體的公司,那么可能軟件工程師需求確實會下降,因為他們可以用更精簡的團(tuán)隊實現(xiàn)相同的產(chǎn)出。然而,全世界對軟件工程師的需求可能會增加,因為這個世界肯定還需要 10 倍以上的高質(zhì)量軟件。所以我認(rèn)為我們將看到精簡公司應(yīng)用開發(fā)的黃金時代。每個人和每家企業(yè)都將獲得自己的個性化微應(yīng)用。
更長遠(yuǎn)地看(大于 2 年就算是長期了),軟件工程將變得完全不同,但很難說會變成怎樣。當(dāng) o6 系統(tǒng)問世并且完全整合進(jìn)我們的應(yīng)用,又怎么會不變呢?3 年后,前端工程師這樣的崗位可能就不存在了。很奇怪嗎?沒那么怪啦 ——30 年前也同樣不存在前端工程師。
回頭看看,我們能看到每一代軟件都會發(fā)生天翻地覆的改變。軟件的核心一直都圍繞著將需求變成純邏輯。在抽象層級上,這種轉(zhuǎn)變過程已經(jīng)從二進(jìn)制代碼上升到了 Python?,F(xiàn)在則是向英語等自然語言上升。
能用英語編程就為非技術(shù)人士進(jìn)入這一領(lǐng)域打開了大門。但最好的開發(fā)者依然還是那些能在各個抽象層級上移動的人。
簡而言之,由于軟件工程實際上就是通過代碼來理解和解決組織的需求,因此軟件工程完全自動化的那天就是所有組織完全自動化的一天。
前面已經(jīng)討論了一些知識工作者,那 AI 對體力工作者有何影響呢?AI 也會接替體力勞動,但會更慢一些,因為還必須處理重力和摩擦。不過,o 系列模型對機(jī)器人幫助不大,畢竟一次需要思考一個小時的模型對生產(chǎn)線上的機(jī)器人來說沒多大用處。
而基礎(chǔ)模型的進(jìn)步能提供幫助,而 o 系列模型可幫助訓(xùn)練這些模型,但我認(rèn)為這無法解決機(jī)器人領(lǐng)域的最大障礙。我認(rèn)為,這個最大障礙是硬件提升以及快速 / 可靠的感知 + 動作模型。這些需要更長的時間才能獲得改進(jìn)(好幾年)。
只有當(dāng)機(jī)器人開始制造機(jī)器人并且 AI 開始進(jìn)行 AI 研究時,才可能出現(xiàn)機(jī)器人技術(shù)的瘋狂快速發(fā)展。這可能會由 o 系列模型實現(xiàn),但我認(rèn)為還需要再等幾年。
波士頓動力的人形機(jī)器人已能后空翻
優(yōu)化測試時間計算 vs 繼續(xù)擴(kuò)大規(guī)模
之前的討論都是以年為單位,但也許可以「計算」為單位。時間能決定人類的產(chǎn)出,而計算能決定 AI 的產(chǎn)出,而 AI 產(chǎn)出將逐漸成為研究機(jī)構(gòu)最重要的事情。正因為此,科技巨頭正在激烈地競相構(gòu)建超級計算集群,比如 Meta 的 2GW 集群、xAI 新增的 10 萬臺 H100。
所有實驗室都將快速跟進(jìn) OpenAI ,研發(fā)測試時間計算模型,有些實驗室可以通過更多的計算來彌補(bǔ)起初較差的算法。他們會像趕上 GPT-4 一樣趕上 o 系列模型。要造出這些模型,需要結(jié)合常識和每個實驗室的秘密配方。
目前尚不清楚 OpenAI 在 o 系列模型方面有多少秘密配方,但它們的提升速度表明這是一種算法上的進(jìn)步(更容易復(fù)現(xiàn)),而不是某種獨(dú)特的數(shù)據(jù)組合(更難復(fù)現(xiàn))。
在這個測試時間計算時代,我不清楚擁有更多計算更重要還是更優(yōu)模型更重要。一方面,你可以通過投入更多的測試時間計算來彌補(bǔ)較差的模型。另一方面,稍好一點的模型可能會節(jié)省大量的計算。
如果 xAI 直接憑借更擅長打造超大集群而最終趕上了 OpenAI,那一定會很有意思。
無論如何,模型護(hù)城河都不會持續(xù)超過一年時間,因為實驗室像交換棒球卡一樣交換著研究者,也許更重要的是,實驗室之間的研究者會一起聚會和睡覺。另外,我認(rèn)為研究者非常理想化,如果出現(xiàn)狀況,會樂于分享信息。
現(xiàn)在的情況有點瘋狂。AI 競賽就像核競賽,但競爭雙方會在周末聚會,并在推特上互相挑釁:打賭你不會在 2025 年擁有最大的核彈,哈哈……
AI 競賽將繼續(xù)給人一種嬉皮娛樂的感覺,直到政府介入和 / 或發(fā)生一些非常糟糕的事情。
o 系列模型會以幾種有趣的方式改變計算擴(kuò)展的動態(tài)。
o 系列模型將激勵大規(guī)模擴(kuò)建,因為它們能隨著計算的增加而獲得明顯的收益。計算提供商最喜歡看到這樣的 Scaling Law。我猜,當(dāng) Sam 想要一個數(shù)萬億美元的計算集群時,看到的就是這個定律。
對英偉達(dá)來說,這不見得是好事。o 系列模型使得推理比訓(xùn)練更重要。我認(rèn)為,超級優(yōu)化的推理芯片比訓(xùn)練芯片更容易制造,因此英偉達(dá)在這方面的護(hù)城河并沒有那么不可撼動。
非常推測:如果 o 系列模型能釋放全世界的聚合計算來訓(xùn)練最好的模型呢?比如,如果我們把 Macbook Pro 合在一起,組成一個推理千兆集群,那么開放源代碼就能打敗封閉源代碼,那該有多酷?
AI 將會從根本上改變科學(xué)研究
計算之外的另一個新指數(shù)是代碼本身。如果一個實驗室擁有使用最智能模型的唯一或特別途徑,他們的軟件工程師的生產(chǎn)力比其他實驗室高出 2 倍,那么他們就能更快地接近下一個生產(chǎn)力翻番的目標(biāo)。
除非代碼速度達(dá)到極限,有一長串實驗需要運(yùn)行,實驗室再次陷入計算瓶頸。(我不知道,動態(tài)變化很難。如果能看到實驗室如何模擬計算與人力之間的關(guān)系,那將是一件超酷的事)。
雖然所有這些計算建設(shè)和知識工作自動化聽起來都很瘋狂,但只有當(dāng)科學(xué)家們開始感受到 AGI 的時候,這一切才會變得真正瘋狂。我指的是物理學(xué)家、化學(xué)家和生物學(xué)家。
它會從任何理論名稱開始,理論物理學(xué)是第一位的。如果數(shù)學(xué)真的被解決了(寫這篇文章聽起來都很荒謬,但這并不意味著不可能),那么理論物理學(xué)也不會落后太多。它也生活在符號領(lǐng)域,LLM 將在這個領(lǐng)域成為超人。
2024 年的諾貝爾物理學(xué)和化學(xué)獎授予了 AI 研究者
當(dāng)我們有一百萬個 AI 馮諾伊曼在盧薩納(Meta 即將建立的數(shù)據(jù)中心)的田野上日夜工作時,會發(fā)生什么?它們能以多快的速度讀完上個世紀(jì)成千上萬篇物理學(xué)論文,并立即吐出更多正確的 token?
顯然,這是難以預(yù)測的部分。理論物理、化學(xué)、生物學(xué),如果這些對于用 RL 訓(xùn)練出來的 LLM 來說是個笑話呢?在這一點上,我們有什么合理的理由來證明它不會是笑話呢?
是的,我們還沒有從這些模型中看到真正的創(chuàng)新,但它們主要是在高中 / 大學(xué)階段,而這些年齡段的人并不會發(fā)明新的物理學(xué)。我們現(xiàn)在處于階段性水平,所以我們可能會開始看到一些創(chuàng)造性。
一旦人工智能開始不斷提出新的科學(xué)理論,進(jìn)步的瓶頸將是在物理世界中進(jìn)行測試和實驗。那里的瓶頸是勞動力和材料。到那時,如果沒有能制造出更多機(jī)器人的機(jī)器人,那才叫奇怪呢。因此,勞動力問題已經(jīng)解決。然后,機(jī)器人可以開采材料。這里的時間表會很慢,因為建造 / 運(yùn)輸實物需要很長的時間,但這是幾年而不是幾十年。
AI 發(fā)展的阻礙與風(fēng)險
我以上所說的一切,都是假定人工智能和機(jī)器人的研究 / 開發(fā)不會遇到新的瓶頸,而且模型可以隨心所欲地學(xué)習(xí)。這幾乎肯定不會發(fā)生,阻礙人工智能發(fā)展的最大瓶頸將是人類。
另一個風(fēng)險是,人工智能會失控。也就是說,它會造成我們無法預(yù)料的大滅絕。特別是隨著強(qiáng)化學(xué)習(xí)重回游戲,人工智能現(xiàn)在正在發(fā)現(xiàn)自己的優(yōu)化方案,而不是試圖匹配人類數(shù)據(jù)(匹配人類更安全)。但到目前為止,這些模型的底層大腦仍然是一個 LLM,而 LLM 已經(jīng)顯示出了對人的理解能力。
但我的興奮感肯定多于害怕感。
未來十年可能實現(xiàn)的目標(biāo)
我一直向往的科幻世界即將到來。它來得比預(yù)想的要快一些,因此我感到恐懼,但在所有可能到達(dá)那里的路徑中,我不知道最好的路徑會有多好。這是一個相當(dāng)不錯的時間表。
我最希望在十年內(nèi)實現(xiàn)的目標(biāo)是:
- 一些瘋狂酷炫的物理發(fā)現(xiàn);
- 最初由機(jī)器人建造的火星和月球基地;
- 完美的家庭教師 / 建議(快到了,需要良好的檢索能力、記憶力和更多的個性);
- 零副作用的生物強(qiáng)化藥物;
- 乘坐超級優(yōu)化的無人機(jī)四處飛行;
- 使用核聚變、地?zé)岷痛罅刻柲艿瘸壡鍧嵞茉矗?/span>
- 一些意想不到:人工智能天文學(xué)家在望遠(yuǎn)鏡數(shù)據(jù)中發(fā)現(xiàn)外星信號?人工智能化學(xué)家輕松設(shè)計出室溫超導(dǎo)體?人工智能物理學(xué)家統(tǒng)一了一些理論?人工智能數(shù)學(xué)家解決了黎曼猜想?
這些看起來不再是科幻小說,而是近在咫尺的科學(xué)現(xiàn)實。
那么,這一切將何去何從?最終我們會得到超級智能,這意味著我們會得到物理定律所允許的一切,我希望能長生不老,并看到其他恒星系統(tǒng)。我還希望把我們的肉體升級到更好的東西。但到目前為止,我最想知道宇宙從何而來。
10 年前,我開始寫日記,講述我是多么想知道這個答案,以及人工智能將如何把我們帶到那里,而現(xiàn)在這一切可能真的發(fā)生了,這太瘋狂了。
我們現(xiàn)在生活的世界,這一切聽起來都有可能實現(xiàn)。每一次新的人工智能發(fā)展都會讓更多的人意識到這一點,o3 就是最近的一次。
我們應(yīng)當(dāng)守護(hù)我們的未來并適應(yīng)變化
未來不超級棒的唯一可能就是我們這些人把它搞砸了。
人們認(rèn)為人工智能實驗室的人在控制我們的未來。我不這么認(rèn)為。他們的工作已經(jīng)確定。他們只是在探究模型架構(gòu),而就算這個實驗室不做,也有另外的實驗室來做。
但是,很多東西都是完全不確定的。這意味著我們是未來的守護(hù)者。我們每一個人都有責(zé)任幫助我們的世界渡過未來的艱難時期,讓我們擁有一個美好的未來,而不是一個可怕的未來。
有很多方法可以幫助我們:幫助制造能讓社會更穩(wěn)定或讓人們更聰明的產(chǎn)品(例如幫助人們規(guī)范社交媒體的應(yīng)用程序)。幫助人們了解正在發(fā)生的事情(在社交媒體上提供更多高質(zhì)量的評論、一個非常好的搜索引擎等)。幫助清理我們的街道,讓這座要求把我們帶入烏托邦的城市不會看起來反烏托邦。
幾乎每個與我交談過的人都害怕在人工智能世界中失去意義,你可能也是。我想對你說,這不正好相反嗎?你生活在歷史最重要的時期,你有能力影響它。幫助拯救世界就足夠了,不是嗎?你想回到那個只有你的事業(yè)進(jìn)步而不是世界都在進(jìn)步的時代嗎?
也許,人們需要做的轉(zhuǎn)變是從「通過個人成功獲得意義」到「通過集體成功獲得意義」。我們目前的許多工作很快就會自動化,我們必須適應(yīng)。如果你從一項特定的技能中獲得意義,這項技能可能在 5 年后就不再需要了,那你就倒霉了。但如果你能從力所能及的幫助世界中獲得意義,那么這種意義永遠(yuǎn)不會消失。
對于所有因為 o3 而得到建議的新畢業(yè)生,我的建議是:學(xué)習(xí)成為一個高水平的問題解決者和出色的團(tuán)隊合作者。你在學(xué)習(xí)過程中學(xué)到的具體技能并不重要,因為世界變化太快。但是,在很長一段時間內(nèi),跳躍性地解決問題和與團(tuán)隊良好合作將非常重要。
你可能還需要接受不穩(wěn)定世界中的不穩(wěn)定生活。這會變得很奇怪。你可能不會在郊區(qū)有兩個孩子和一條狗。你可能會在星際方舟上有兩個機(jī)器人孩子和一只人工智能狗。
我們正生活在 AGI 的前夜,我希望你們能幫助 AGI 順利過渡,這樣我就能在公元 3024 年的圣誕夜,在四光年外繞著 Altman Centauri 運(yùn)行的星球上向你們問好。
原文鏈接:https://x.com/WilliamBryk/status/1871946968148439260。