馬斯克怒告OpenAI案解密:Ilya看到了什么?125萬(wàn)億參數(shù)Q*細(xì)節(jié)曝光,53頁(yè)P(yáng)DF全網(wǎng)瘋轉(zhuǎn)
本年度科技圈這場(chǎng)里程碑級(jí)大戰(zhàn),還在持續(xù)白熱化!
剛剛,Sam Altman罕見(jiàn)地發(fā)聲了,連發(fā)兩條推文。
在馬斯克鬧出起訴風(fēng)波后,Altman一直保持緘默。因此,這兩條推文應(yīng)該是全公司經(jīng)過(guò)了深思熟慮的結(jié)果——
颶風(fēng)已經(jīng)愈來(lái)愈猛烈,但風(fēng)暴中心卻仍然保持著平靜。
這一切都發(fā)生過(guò),這一切都還將再次發(fā)生。
圖片
在Altman看來(lái),目前發(fā)生的一切不過(guò)是新瓶裝舊酒,不斷在重演的故事罷了。
但傳聞中的Q*和AGI,已經(jīng)讓全世界談之色變。
本案最大未解之謎:Ilya究竟看到了什么
在用ChatGPT和Sora在全世界掀起颶風(fēng)之后,OpenAI真的能如Altman所說(shuō),在風(fēng)暴中心保持平靜嗎?
恐怕潘多拉的魔盒已經(jīng)打開(kāi),在我們看不到的角落里,蝴蝶效應(yīng)已經(jīng)產(chǎn)生。
馬斯克起訴OpenAI案最大的未解之謎就是——Ilya究竟看到了什么?
圖片
去年宮斗風(fēng)波發(fā)生時(shí),馬斯克就表示很擔(dān)心:Ilya是一個(gè)擁有良好道德的人,并不尋求權(quán)力。除非他認(rèn)為有必要,否則絕不會(huì)采取如此過(guò)激的行動(dòng)
讓我們把時(shí)間線倒回,好好復(fù)盤(pán)一下這樁起訴案發(fā)生之前,Altman的一言一行,都埋下了哪些線索。
在2023年11月,就在Altman被董事會(huì)解雇的前一天,他在APEC會(huì)議上曾有一次令人不寒而栗的發(fā)言,暗示了OpenAI已經(jīng)開(kāi)發(fā)出了比GPT-4更強(qiáng)大、更難以想象的東西,遠(yuǎn)超人們的期待。
模型的能力將會(huì)有一個(gè)無(wú)人預(yù)料到的飛躍。與人們的預(yù)期不同,這個(gè)飛躍是驚人的!
現(xiàn)在正在發(fā)生的技術(shù)變革,將徹底改變我們生活方式、經(jīng)濟(jì)和社會(huì)結(jié)構(gòu)以及其他可能性限制……這在OpenAI的歷史上有四次 ,而最近一次,就是在過(guò)去幾周內(nèi)。
在撥開(kāi)無(wú)知的面紗和探索未知的邊界時(shí),我有幸在場(chǎng), 這是我職業(yè)生涯中的榮幸。
在給出這篇演講時(shí),我們還對(duì)Q*一無(wú)所知。
緊接著第二天,OpenAI的宮斗風(fēng)波震驚全世界,Altman被趕下臺(tái),而Ilya「看到了一些東西」。
那幾天里,「Ilya究竟看到了什么」引起了全網(wǎng)的猜測(cè)和恐慌
宮斗風(fēng)波第四天時(shí),OpenAI秘密的AI模型突破Q*被泄露。據(jù)說(shuō)OpenAI的兩位研究員Jakub Pachocki和Symon Sidor,利用Ilya的工作成果做出了Q*。
同時(shí)大家發(fā)現(xiàn),在Altman被解雇之下,OpenAI的研究人員曾給董事會(huì)發(fā)出一封信,警告一項(xiàng)「可能威脅人類(lèi)」的全新AI發(fā)現(xiàn)。
這封此前從未報(bào)道過(guò)的信,也是董事會(huì)最終罷免Altman的導(dǎo)火索之一
Ilya看到的,就是這項(xiàng)發(fā)現(xiàn)嗎?或者說(shuō),Ilya看到的,就是Q*嗎?
圖片
而到了2024年2月,馬斯克正式起訴OpenAI,這記回旋鏢正中眉心。
馬斯克認(rèn)為,GPT-4是一個(gè)AGI算法,所以O(shè)penAI已經(jīng)實(shí)現(xiàn)了AGI,因此這超出了和微軟協(xié)議的范圍,這項(xiàng)協(xié)議僅適用于AGI出現(xiàn)之前的技術(shù)。
圖片
「基于所掌握的信息和相信為真的內(nèi)容,OpenAI目前正在開(kāi)發(fā)一種名為Q*的模型,該模型對(duì)AGI具有更強(qiáng)的主張」
起訴書(shū)中還說(shuō),看起來(lái)Q*很有可能會(huì)被OpenAI開(kāi)發(fā)成一個(gè)AGI,更清晰、更引人注目。
圖片
Q*真的值得馬斯克如此大費(fèi)周章、如臨大敵嗎?
根據(jù)目前泄露出來(lái)的信息,Q*的能力,是能夠解決小學(xué)階段的數(shù)學(xué)問(wèn)題。
雖然在大多數(shù)人看來(lái),這并不是什么令人印象深刻的事,但這的確是朝向AGI邁出的一大步,堪稱(chēng)重要的技術(shù)里程碑。
因?yàn)镼*解決的,是以前從未見(jiàn)過(guò)的數(shù)學(xué)題。
Ilya做出的突破,使OpenAI不再受限于獲取足夠的高質(zhì)量數(shù)據(jù)來(lái)訓(xùn)練新模型,而這,正是開(kāi)發(fā)下一代模型的主要障礙。
那幾周內(nèi),Q*的演示一直在OpenAI內(nèi)部流傳,所有人都很震驚。
圖片
據(jù)悉,OpenAI的一些人認(rèn)為Q*可能是OpenAI在AGI上取得的一個(gè)突破。AGI的定義是:「在最具經(jīng)濟(jì)價(jià)值的任務(wù)中,超越人類(lèi)的自主系統(tǒng)」
所以Q*會(huì)威脅人類(lèi)嗎?
現(xiàn)在,公眾仍然不清楚細(xì)節(jié),馬斯克似乎認(rèn)為答案是肯定的,而「看到了什么」的Ilya,至今去向不明。
圖片
Ilya的社交媒體,至今還停留在這一條23年12月15日的推特,從此再無(wú)動(dòng)態(tài)
網(wǎng)友:Ilya看到的東西,就是奧本海默時(shí)刻
現(xiàn)在,已經(jīng)有人把「Ilya看到那個(gè)東西」的時(shí)刻,歸結(jié)為奧本海默時(shí)刻,并且,那個(gè)東西的危險(xiǎn)和強(qiáng)大程度比原子彈還要高出數(shù)百萬(wàn)倍。
圖片
Ilya看到的這個(gè)東西改變了游戲規(guī)則,級(jí)別在AGI和ASI之間,因?yàn)樗ε铝?,所以踢出了Altman
網(wǎng)友們猜測(cè),馬斯克現(xiàn)在下這一盤(pán)大棋,就是為了搞清Ilya究竟看到了什么,來(lái)感受一把真正的AGI。
圖片
Ilya看到了什么可怕的東西?
網(wǎng)友們一致認(rèn)為,或許普通人看到的只是AI系統(tǒng)而已,但I(xiàn)lya看到的,是AI的突破性發(fā)現(xiàn)。
圖片
很多人相信,就是Ilya看到的就是Q*,隨后有了一些新發(fā)現(xiàn)。
圖片
因?yàn)镮lya不是個(gè)關(guān)心政治的人,他肯定是看到了相當(dāng)危險(xiǎn)的東西,把董事會(huì)都給嚇到了。
圖片
或許他看到的只是Sora生成的視頻?但直覺(jué)告訴我們應(yīng)該不只如此。
但是從此,OpenAI發(fā)生了一場(chǎng)大震蕩,削弱了GPT,削弱了未來(lái)推出的模型。
地下室里究竟有什么?!
圖片
Altman急澄清:AI是工具,不是新物種!
面對(duì)外界的這番恐慌情緒,Altman在最近接受《The Advocate》雜志采訪時(shí)急忙解釋道:很多人都對(duì)AI誤解了,他們甚至分不清AI到底是一種「生物」還是「工具」。
圖片
在他看來(lái),將AI視為科幻電影中的生物角色確實(shí)更吸引人。但如果真的用了ChatGPT,就會(huì)明白它只是一個(gè)工具而已。
AI目前更多是一套基于數(shù)據(jù)和數(shù)學(xué)的系統(tǒng),能夠產(chǎn)生統(tǒng)計(jì)上可能的結(jié)果,而不是「生物」這種全新的生命形態(tài)。
在目前全社會(huì)對(duì)OpenAI的擔(dān)憂情緒下,這種描述的確很應(yīng)景。
不過(guò),Altman以前可不是這么說(shuō)的。
他曾預(yù)測(cè)道,AI很快就能替代中等水平的人類(lèi)勞動(dòng)者,導(dǎo)致大規(guī)模失業(yè)。能夠自主行動(dòng)的AI智能體,下一步可能就是替代人類(lèi)。
2027年構(gòu)建AGI計(jì)劃推遲
同時(shí),網(wǎng)上一份最新長(zhǎng)達(dá)53頁(yè)的PDF,曝光了OpenAI預(yù)計(jì)在2027年前打造出人類(lèi)級(jí)別AGI的計(jì)劃,或許能夠部分解答「地下室里有什么」的問(wèn)題。
目前還不知這個(gè)透露可靠度有多高,不過(guò)文檔作者Jackson賬號(hào)注冊(cè)于2023年7月,目前就只發(fā)布了2條推文,都是昨天發(fā)布的。
而且,他主頁(yè)上的簽名是「jimmy apples竊取了我的信息」。(jimmy apples曾多次爆料關(guān)于OpenAI模型發(fā)布信息)。
圖片
Jackson表示,「自己將披露收集到的有關(guān) OpenAI(已推遲)計(jì)劃在2027年之前創(chuàng)建人類(lèi)級(jí)別AGI的信息」。
圖片
摘要中,具體介紹了OpenAI通往AGI的時(shí)間線:
OpenAI于2022年8月便開(kāi)始訓(xùn)練一個(gè)125萬(wàn)億參數(shù)的多模態(tài)模型。
第一階段是Arrakis,也稱(chēng)為Q*。模型于2023年12月完成訓(xùn)練,但由于推理成本過(guò)高而取消發(fā)布。這就是原本計(jì)劃在2025年發(fā)布的GPT-5。Gobi(GPT-4.5)已更名為GPT-5,因?yàn)樵璆PT-5已被取消。
Q*的下一階段原為GPT-6,后更名為GPT-7(原計(jì)劃于2026年發(fā)布),但由于最近馬斯克的訴訟而被擱置。
Q* 2025(GPT-8)原計(jì)劃于2027年發(fā)布,旨在實(shí)現(xiàn)完全的AGI。
Q* 2023 = IQ達(dá)到48
Q* 2024 = IQ達(dá)到96(延遲)
Q* 2025 = IQ達(dá)到145(延遲)。
圖片
參數(shù)計(jì)數(shù)
「深度學(xué)習(xí)」這一概念基本上可以追溯到20世紀(jì)50年代AI研究的初期。
第一個(gè)神經(jīng)網(wǎng)絡(luò)誕生于上世紀(jì)50年代,而現(xiàn)代神經(jīng)網(wǎng)絡(luò)只是「更深」而已。
這意味著它們包含更多的層——它們要大得多,也要在更多的數(shù)據(jù)上進(jìn)行訓(xùn)練。
圖片
當(dāng)今AI領(lǐng)域大多數(shù)主要技術(shù)都源20世紀(jì)50年代的基礎(chǔ)研究,并結(jié)合了一些工程解決方案,如「反向傳播算法」 和「Transformer模型」。
總的來(lái)說(shuō),AI研究70年來(lái)沒(méi)有發(fā)生根本性變化。因此,近來(lái)AI能力爆發(fā)的真正原因只有兩個(gè):規(guī)模和數(shù)據(jù)。
越來(lái)越多的人開(kāi)始相信,幾十年來(lái)我們?cè)缫呀鉀Q了AGI的技術(shù)細(xì)節(jié),只是在21世紀(jì)之前沒(méi)有足夠的算力和數(shù)據(jù)來(lái)構(gòu)建AGI。
顯然,21世紀(jì)的計(jì)算機(jī),要比上個(gè)世紀(jì)50年代的計(jì)算機(jī)強(qiáng)大得多。當(dāng)然,互聯(lián)網(wǎng)數(shù)據(jù)來(lái)源也更加豐富。
那么,什么是參數(shù)呢?
它類(lèi)似于生物大腦中的突觸,是神經(jīng)元之間的連接。生物大腦中有1000個(gè)連接。顯然,數(shù)字神經(jīng)網(wǎng)絡(luò)在概念上類(lèi)似于生物大腦。
那么,人腦中有多少個(gè)突觸(或「參數(shù)」)呢?
最常引用的大腦突觸數(shù)量大約為100萬(wàn)億個(gè),這意味著每個(gè)神經(jīng)元(人腦中約有1000億個(gè)神經(jīng)元)大約有1000個(gè)連接。
如果大腦中每個(gè)神經(jīng)元有1000個(gè)連接點(diǎn),這意味著一只貓大約有2500億個(gè)突觸,一只狗有5300億個(gè)突觸。
一般來(lái)說(shuō),突觸數(shù)似乎預(yù)示著較高的智力,但也有少數(shù)例外:例如,從技術(shù)上講,大象的突觸數(shù)比人類(lèi)高,但智力卻比人類(lèi)低。
突觸數(shù)量越多,智力越低,最簡(jiǎn)單的解釋就是高質(zhì)量數(shù)據(jù)的數(shù)量越少。
從進(jìn)化的角度來(lái)看,大腦是在數(shù)十億年的表觀遺傳數(shù)據(jù)的基礎(chǔ)上「訓(xùn)練」出來(lái)的,人類(lèi)的大腦是從比大象更高質(zhì)量的社會(huì)化和交流數(shù)據(jù)中進(jìn)化出來(lái)的,所以我們具備了卓越的推理能力。無(wú)論如何,突觸數(shù)量無(wú)疑是非常重要的。
同樣,自2010年以來(lái),AI能力的爆炸式增長(zhǎng)是,更強(qiáng)算力和更多數(shù)據(jù)的結(jié)果。
GPT-2有15億個(gè)連接,還不如一個(gè)小鼠的大腦(約100億個(gè)突觸)。GPT-3有1750億個(gè)連接,已經(jīng)接近貓的大腦。
100萬(wàn)億參數(shù),AI即可達(dá)到人類(lèi)水平
2020年,1750億參數(shù)的GPT-3發(fā)布后,許多人對(duì)一個(gè)比它大600倍、參數(shù)為100萬(wàn)億模型(這一參數(shù)與人類(lèi)大腦的突觸數(shù)相匹配)的潛在性能進(jìn)行猜測(cè)——
圖片
正如Lanrian所解釋的,推斷結(jié)果表明,AI的性能似乎會(huì)莫名其妙地達(dá)到人類(lèi)水平。
與此同時(shí),人類(lèi)水平的大腦大小也會(huì)與參數(shù)數(shù)量相匹配。
他計(jì)算的大腦突觸數(shù)量約是200萬(wàn)億參數(shù),而不是通常所說(shuō)的100萬(wàn)億參數(shù)——但這一觀點(diǎn)仍然成立,而且100萬(wàn)億參數(shù)的性能非常接近最佳狀態(tài)。
那么,如果AI的性能是可以根據(jù)參數(shù)數(shù)量預(yù)測(cè)的,而且~100萬(wàn)億參數(shù)足以達(dá)到人類(lèi)水平,那么什么時(shí)候會(huì)發(fā)布100萬(wàn)億參數(shù)的AI模型呢?
GPT-5在2023年末實(shí)現(xiàn)了最初的AGI,IQ達(dá)到48。
OpenAI新策略:Chinchilla縮放定律
100萬(wàn)億參數(shù)模型實(shí)際上性能不是最優(yōu)的,不過(guò)OpenAI正在使用一種新的縮放范式來(lái)彌補(bǔ)這一差距——基于一種叫做Chinchilla scaling laws(縮放定律)的方法。
Chinchilla是DeepMind在2022年初發(fā)布的AI模型。
圖片
論文地址:https://arxiv.org/pdf/2203.15556.pdf
這篇論文中,暗示了目前的模型明顯訓(xùn)練不足,如果計(jì)算量(意味著更多數(shù)據(jù))大大增加,無(wú)需增加參數(shù)就能大幅提升性能。
重點(diǎn)是,雖然一個(gè)訓(xùn)練不足的100萬(wàn)億參數(shù)模型不是最優(yōu)的,但如果用更多的數(shù)據(jù)對(duì)其進(jìn)行訓(xùn)練,其性能就能輕松超越人類(lèi)水平。
在ML領(lǐng)域,Chinchilla范式已被廣泛理解和接受。
但OpenAI總裁Greg Brockman在采訪中談到,OpenAI是如何意識(shí)到自己最初的scaling laws存在缺陷,并在此后進(jìn)行調(diào)整,將Chinchilla納入考慮范圍。
地址:https://youtu.be/Rp3A5q9L_bg?t=1323
研究員Alberto Romero曾撰文介紹了的Chinchilla scaling突破。
Chinchilla表明,盡管它比GPT-3和DeepMind自家模型Gopher小得多,但由于在更多的數(shù)據(jù)上進(jìn)行了訓(xùn)練,它的性能超過(guò)了強(qiáng)大的模型。
盡管預(yù)測(cè)100萬(wàn)億參數(shù)模型的性能不是最優(yōu),但OpenAI非常了解Chinchilla scaling laws。
他們正在將Q*訓(xùn)練成一個(gè)100萬(wàn)億參數(shù)的多模態(tài)模型,這個(gè)模型的計(jì)算能力是最優(yōu)的,而且訓(xùn)練的數(shù)據(jù)量遠(yuǎn)遠(yuǎn)超過(guò)了初衷。
圖片
Q*:125萬(wàn)億參數(shù)巨獸?
最后,作者透露了一個(gè)令人難以置信的信息來(lái)源——來(lái)自著名的計(jì)算機(jī)科學(xué)家Scott Aaronson。
圖片
2022年夏天,他加入OpenAI后,從事了為期一年的AI安全方面的工作。他曾在博客上發(fā)表了一些非常有趣的言論。
這篇在2022年12月底的文章——「一封寫(xiě)給11歲自己的信」,討論了一些實(shí)事和Scott在生活中取得的成就。
圖片
下半部分才是最可怕的部分...
有一家公司正在開(kāi)發(fā)一種人工智能,它填滿了巨大的房間,耗費(fèi)了整個(gè)城鎮(zhèn)的電力,最近還獲得了令人震驚的能力——能像人一樣交談。
它可以就任何主題寫(xiě)論文、詩(shī)歌。它可以輕松通過(guò)大學(xué)水平的考試。它每天都在獲得新的能力,但負(fù)責(zé)AI的工程師們還不能公開(kāi)談?wù)摗?/span>
不過(guò),這些工程師會(huì)坐在公司食堂里,討論他們正在創(chuàng)造的東西的意義。
下周它會(huì)學(xué)會(huì)做什么?它可能會(huì)淘汰哪些工作?他們是否應(yīng)該放慢速度或停下來(lái),以免「怪獸」失控?
但是,這并非意味著其他人,可能是更沒(méi)有顧忌的人,不會(huì)最先喚醒「巨獸」嗎?是否有義務(wù)告訴世人更多關(guān)于這件事的信息?還是有義務(wù)少說(shuō)一點(diǎn)?
我——現(xiàn)在的你——正在那家公司工作一年。我的工作是開(kāi)發(fā)一個(gè)數(shù)學(xué)理論,以防止人工智能及其后繼者走向極端。其中「走向極端」可能意味著從加速宣傳和學(xué)術(shù)作弊,到提供生物恐怖主義建議,再到摧毀世界。
圖片
這里,Scott指的就是多模態(tài)大模型Q*,一個(gè)125萬(wàn)億參數(shù)的巨獸。
圖片
爆火「Q*假說(shuō)」?fàn)砍鍪澜缒P?,全網(wǎng)AI大佬熱議
去年11月,Q*項(xiàng)目就曾引發(fā)這個(gè)AI社區(qū)熱議。
疑似接近AGI,因?yàn)榫薮笥?jì)算資源能解決某些數(shù)學(xué)問(wèn)題,讓Sam Altman出局董事會(huì)的導(dǎo)火索,有毀滅人類(lèi)風(fēng)險(xiǎn)……這些元素單拎出哪一個(gè)來(lái),都足夠炸裂。
所以,Q*究竟是啥呢?
這要從一項(xiàng)1992年的技術(shù)Q-learning說(shuō)起。
圖片
簡(jiǎn)單來(lái)說(shuō),Q-learning是一種無(wú)模型的強(qiáng)化學(xué)習(xí)算法,旨在學(xué)習(xí)特定狀態(tài)下某個(gè)動(dòng)作的價(jià)值。其最終目標(biāo)是找到最佳策略,即在每個(gè)狀態(tài)下采取最佳動(dòng)作,以最大化隨時(shí)間累積的獎(jiǎng)勵(lì)。
斯坦福博士Silas Alberti由此猜測(cè),Q*很可能是基于AlphaGo式蒙特卡羅樹(shù)搜索token軌跡。下一個(gè)合乎邏輯的步驟是以更有原則的方式搜索token樹(shù)。這在編碼和數(shù)學(xué)等環(huán)境中尤為合理。
圖片
隨后,更多人猜測(cè),Q*指的就是A*算法和Q學(xué)習(xí)的結(jié)合!
圖片
甚至有人發(fā)現(xiàn),Q-Learning竟然和ChatGPT成功秘訣之一的RLHF,有著千絲萬(wàn)縷的聯(lián)系!
圖片
隨著幾位AI大佬的下場(chǎng),大家的觀點(diǎn),愈發(fā)不謀而合了。
AI2研究科學(xué)家Nathan激動(dòng)地寫(xiě)出一篇長(zhǎng)文,猜測(cè)Q假說(shuō)應(yīng)該是關(guān)于思想樹(shù)+過(guò)程獎(jiǎng)勵(lì)模型。并且認(rèn)為Q*假說(shuō)很可能和世界模型有關(guān)!
圖片
圖片
文章地址:https://www.interconnects.ai/p/q-star
他猜測(cè),如果Q*(Q-Star)是真的,那么它顯然是RL文獻(xiàn)中的兩個(gè)核心主題的合成:Q值和A*(一種經(jīng)典的圖搜索算法)。
圖片
A*算法的一個(gè)例子
英偉達(dá)高級(jí)科學(xué)家Jim Fan也認(rèn)為,Q*令人贊嘆,可以和AlphaGo類(lèi)比。
在我投身人工智能領(lǐng)域的十年中,我從來(lái)見(jiàn)過(guò)有這么多人對(duì)一個(gè)算法有如此多的想象!即使它只有一個(gè)名字,沒(méi)有任何論文、數(shù)據(jù)或產(chǎn)品。
圖片
其實(shí),多年來(lái)Ilya一直在研究如何讓GPT-4解決涉及推理的任務(wù),比如數(shù)學(xué)或科學(xué)問(wèn)題。
此前,Ilya在這個(gè)方向就有多年積累。21年,他啟動(dòng)了GPT-Zero項(xiàng)目,這是對(duì)DeepMind AlphaZero的致敬。
圖片
GPT-Zero可以下國(guó)際象棋、圍棋和將棋。而團(tuán)隊(duì)假設(shè),只要給大模型更多的時(shí)間和算力,假以時(shí)日,它們一定能達(dá)到新的學(xué)術(shù)突破。
而且在半年之前,就有硅谷大佬扒出,OpenAI很有可能會(huì)將「實(shí)時(shí)檢索」和模型能力結(jié)合起來(lái),創(chuàng)造出難以想象的AI能力。
圖靈三巨頭LeCun則認(rèn)為,Q*則很可能是OpenAI在規(guī)劃領(lǐng)域的嘗試,即利用規(guī)劃策略取代自回歸token預(yù)測(cè)。
隨后,更是有驚人消息曝出:Q*竟然能破解加密,AI自己在偷偷編程。而OpenAI曾試圖就此向NSA提出預(yù)警。
如果這個(gè)消息是真的,那我們無(wú)疑已經(jīng)無(wú)限接近AGI。
參考資料:
https://x.com/vancouver1717/status/1764110695237390844?s=20
https://twitter.com/rowancheung/status/1764324891484938529
https://futurism.com/the-byte/sam-altman-openai-tool-creature