谷歌工程師硬核長(zhǎng)篇預(yù)測(cè),證實(shí)黃仁勛觀點(diǎn):AGI或在2029年出現(xiàn),AI五年內(nèi)通過人類測(cè)試
最近,英偉達(dá)CEO黃仁勛表示,AI會(huì)在五年內(nèi)通過人類測(cè)試,AGI將很快到來!
在斯坦福大學(xué)舉行的一個(gè)經(jīng)濟(jì)論壇上,黃仁勛回答了這個(gè)問題:人類何時(shí)能創(chuàng)造像人類一樣思考的計(jì)算機(jī)?
這也是硅谷的長(zhǎng)期目標(biāo)之一。
老黃是這樣回答的:答案很大程度上取決于我們?nèi)绾味x這個(gè)目標(biāo)。
如果我們對(duì)「像人類一樣思考的計(jì)算機(jī)」的定義,是通過人體測(cè)試能力,那么AGI很快就會(huì)到來。
五年后,AI將通過人類測(cè)試
老黃認(rèn)為,如果我們把能想象到的每一個(gè)測(cè)試都列出一個(gè)清單,把它放在計(jì)算機(jī)科學(xué)行業(yè)面前,讓AI去完成,那么不出五年,AI會(huì)把每個(gè)測(cè)試都做得很好。
截至目前,AI可以通過律師考試等測(cè)試,但是在胃腸病學(xué)等專業(yè)醫(yī)療測(cè)試中,它依然舉步維艱。
但在老黃看來,五年后,它應(yīng)該能通過這些測(cè)試中的任何一個(gè)。
不過他也承認(rèn),如果根據(jù)其他定義,AGI可能還很遙遠(yuǎn),因?yàn)槟壳皩<覀儗?duì)于描述人類思維如何運(yùn)作方面,仍然存在分歧。
因此,如果從工程師的角度,實(shí)現(xiàn)AGI是比較難的,因?yàn)楣こ處熜枰鞔_的目標(biāo)。
另外,黃仁勛還回答了另外一個(gè)重要問題——我們還需要多少晶圓廠,來支持AI產(chǎn)業(yè)的擴(kuò)張。
最近,OpenAI CEO Sam Altman的七萬億計(jì)劃震驚了全世界,他認(rèn)為,我們還需要更多的晶圓廠。
而在黃仁勛看來,我們的確需要更多芯片,但隨著時(shí)間推移,每塊芯片的性能就會(huì)變得更強(qiáng),這也就限制了我們所需芯片的數(shù)量。
他表示:「我們將需要更多的晶圓廠。但是,請(qǐng)記住,隨著時(shí)間的推移,我們也在極大地改進(jìn)AI的算法和處理?!?/span>
計(jì)算效率的提高,需求并不會(huì)像今天這么大。
「我會(huì)在10年內(nèi),將計(jì)算能力提高了一百萬倍?!?/span>
谷歌工程師:2028年有10%概率實(shí)現(xiàn)AGI
而谷歌機(jī)器人團(tuán)隊(duì)的軟件工程師Alex Irpan,在LLM領(lǐng)域出現(xiàn)進(jìn)展后發(fā)現(xiàn),AGI的到來會(huì)比自己預(yù)想的更快。
Irpan對(duì)于AGI的定義如下——
一個(gè)人工智能系統(tǒng),在幾乎所有(95%+)具有經(jīng)濟(jì)價(jià)值的工作上,都能與人類相匹配或超過人類。
4年前,他對(duì)于AGI的預(yù)測(cè)是——
2035年出現(xiàn)的幾率為10%;
2045年出現(xiàn)的幾率有50%;
2070年出現(xiàn)的幾率有90%。
然而現(xiàn)在,當(dāng)GPT-4、Gemini、Claude等模型出現(xiàn)后,他重新審視了自己的判斷。
現(xiàn)在他對(duì)于AGI的預(yù)測(cè)是——
2028年出現(xiàn)的幾率為10%;
2035年出現(xiàn)的幾率為25%;
2045年出現(xiàn)的幾率為50%;
2070年出現(xiàn)的幾率為90%。
對(duì)于自己的預(yù)測(cè), Irpan在下面給出了詳盡的解釋。
計(jì)算的作用
關(guān)于AGI,Irpan認(rèn)為存在兩個(gè)主要的觀點(diǎn)。
觀點(diǎn)1:僅僅通過增加模型的規(guī)模就足以實(shí)現(xiàn)AGI。
目前很多看起來難以克服的問題,在模型規(guī)模大到一定程度時(shí),就會(huì)自然消失。雖然擴(kuò)大模型的規(guī)模并非易事,但相關(guān)的技術(shù)挑戰(zhàn)預(yù)計(jì)將在不久的將來就會(huì)得到解決,隨后AGI的實(shí)現(xiàn)也將順理成章。
觀點(diǎn)2:僅僅依靠擴(kuò)大現(xiàn)有模型的規(guī)模是不夠的。
雖然增加規(guī)模非常重要,但我們最終會(huì)發(fā)現(xiàn),即便規(guī)模再大也無法實(shí)現(xiàn)AGI。這時(shí),就需要跳出當(dāng)前的技術(shù)范式,尋找全新的思路來取得進(jìn)一步的突破。而這也將會(huì)是一個(gè)長(zhǎng)期的過程。
2020年時(shí),作者忽然發(fā)現(xiàn),第一個(gè)觀點(diǎn)(即通過擴(kuò)大規(guī)模來實(shí)現(xiàn)AGI的假設(shè))的重要性愈發(fā)凸顯,因此他決定調(diào)整自己的「AGI時(shí)間線」。
而到了2024年,「規(guī)模擴(kuò)大時(shí)才會(huì)發(fā)生涌現(xiàn)」的觀點(diǎn)更是成為了主流。
如果縮放定律繼續(xù)下去,AGI將不會(huì)再花那么長(zhǎng)時(shí)間。而迄今為止的證據(jù)表明,縮放定律更有可能是正確的。
如果有什么沒有被提到,那就是預(yù)測(cè)下一個(gè)token的靈活性。
事實(shí)證明,如果你對(duì)足夠多的「指令示例」數(shù)據(jù)進(jìn)行微調(diào),那么預(yù)測(cè)下一個(gè)token就足以讓AI表現(xiàn)得仿佛它能理解并遵循指令一樣,而這已經(jīng)非常接近于真正的理解了。
基于這種指令微調(diào),可以讓一個(gè)1.5B模型的表現(xiàn)超越一個(gè)沒有微調(diào)的175B模型。而這就是讓ChatGPT在當(dāng)前的計(jì)算資源條件下得以實(shí)現(xiàn)的關(guān)鍵。
隨著時(shí)間的推移,僅僅依靠大規(guī)模的算力和正確的數(shù)據(jù)集,就能夠?qū)崿F(xiàn)從初步概念到成熟產(chǎn)品之間的飛躍的可能性越來越大。
現(xiàn)在,作者開始認(rèn)為,在這一進(jìn)程中,80%依賴于算力,20%需要更加創(chuàng)新的思想。
當(dāng)然,創(chuàng)新思想依然至關(guān)重要——例如「思維鏈」就極大地推動(dòng)了我們能夠更加有效地利用大語言模型。
論文地址:https://arxiv.org/abs/2309.03409
至少在當(dāng)前階段,找到更好的利用大語言模型的方法仍然是一個(gè)需要不斷創(chuàng)新的領(lǐng)域。
無監(jiān)督學(xué)習(xí)
想當(dāng)年,在遷移學(xué)習(xí)領(lǐng)域,大家都為一篇能同時(shí)處理5個(gè)任務(wù),并且展示了如何在第6個(gè)任務(wù)上快速學(xué)習(xí)的論文感到興奮。
但現(xiàn)在,大家的焦點(diǎn)都放在了如何通過足夠多輪次的下一個(gè)token預(yù)測(cè),以零樣本的方式處理多種任務(wù)的大語言模型上。換句話說就是:「LLM是能夠識(shí)別各種模式的通用機(jī)器」。
相比之下,像PCGrad這樣的專用遷移學(xué)習(xí)技術(shù),不僅沒人使用,甚至也沒人去研究了。
如今,無監(jiān)督和自監(jiān)督方法仍然是推動(dòng)每一個(gè)LLM和多模態(tài)模型發(fā)展的「暗物質(zhì)」。只要將數(shù)據(jù)和計(jì)算任務(wù)「投入」這個(gè)無底洞,它就能給出我們需要的答案。
論文地址:https://arxiv.org/abs/2307.04721
與此同時(shí),監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)仍然發(fā)揮著它們的作用,盡管熱度已經(jīng)大不如前。
當(dāng)初,深度強(qiáng)化學(xué)習(xí)就曾經(jīng)被指效率極其低下。的確,從頭開始進(jìn)行深度強(qiáng)化學(xué)習(xí)是有些不切實(shí)際,但它卻是評(píng)估的一個(gè)有效途徑。
時(shí)間快速流逝到現(xiàn)在,研究基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)的人表示,只要有高質(zhì)量的偏好數(shù)據(jù),幾乎任何強(qiáng)化學(xué)習(xí)算法都能得到不錯(cuò)的結(jié)果。
相比之下,最關(guān)鍵的問題則是,強(qiáng)化學(xué)習(xí)算法本身。
回顧Yann LeCun在2016年NeurIPS上的演講中提到的那張著名的「蛋糕幻燈片」。人們雖然對(duì)上面的「櫻桃」表示尊重,但更關(guān)注的是「蛋糕」本身。
作者依然相信,更好的通用強(qiáng)化學(xué)習(xí)算法是存在的,這些算法能夠提升基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)的效果。
然而,當(dāng)你可以將額外的計(jì)算資源用于預(yù)訓(xùn)練或監(jiān)督微調(diào)時(shí),去尋找這些算法的必要性就變得相對(duì)較小了。
特別是機(jī)器學(xué)習(xí)領(lǐng)域正在逐漸偏向于采用模仿學(xué)習(xí)這種方法,因?yàn)樗子趯?shí)施且能更高效地利用計(jì)算資源。
至少在當(dāng)前的研究環(huán)境中,我們正從通用的強(qiáng)化學(xué)習(xí)方法轉(zhuǎn)向利用偏好數(shù)據(jù)結(jié)構(gòu)的方法,例如動(dòng)態(tài)偏好優(yōu)化(DPO)等等。
更好的工具
在工具發(fā)展方面,隨著Transformers技術(shù)成為越來越多人的首選,相關(guān)的工具變得更專業(yè)、更集中。
比如,人們會(huì)更傾向于使用那些「已經(jīng)集成了LLaMa或Whisper」的代碼庫,而不是那些通用的機(jī)器學(xué)習(xí)框架。
與此同時(shí),API的受眾也變得更加廣泛,包括業(yè)余愛好者、開發(fā)者和研究人員等等,這讓供應(yīng)商有了更多的經(jīng)濟(jì)動(dòng)力去改善用戶體驗(yàn)。
隨著AI變得更加流行和易于獲取,提出研究想法的人群會(huì)增長(zhǎng),這無疑加速了技術(shù)的發(fā)展。
縮放定律
一開始公認(rèn)的模型縮放規(guī)律是基于2020年Kaplan等人的研究,這些規(guī)律還有很大的改進(jìn)空間。
兩年后,Hoffman等人在2022年提出了「Chinchilla縮放規(guī)律」,即在給定的算力(FLOPs)下,只要數(shù)據(jù)集足夠大,模型的規(guī)??梢源蠓s小。
論文地址:https://arxiv.org/abs/2203.15556
值得注意的是,Chinchilla縮放規(guī)律基于的是這樣一個(gè)假設(shè):訓(xùn)練一個(gè)模型后,在基準(zhǔn)測(cè)試上僅運(yùn)行一次推理。
但在實(shí)際應(yīng)用中,大型模型通常會(huì)被多次用于推理(作為產(chǎn)品或API的一部分),這種情況下,考慮到推理成本,延長(zhǎng)訓(xùn)練時(shí)間比Chinchilla建議的更為經(jīng)濟(jì)。
隨后,Thaddée Yann TYL的博客進(jìn)一步分析認(rèn)為,模型的規(guī)模甚至可以比以前假設(shè)的更小。
文章地址:https://espadrine.github.io/blog/posts/chinchilla-s-death.html
不過,作者認(rèn)為,對(duì)于模型的能力來說,縮放規(guī)律的調(diào)整并不那么重要——效率的提升雖有,但并不明顯。
相比之下,算力和數(shù)據(jù)仍是主要瓶頸。
在作者看來,目前最重要的變化是,推理時(shí)間大大縮短了——更小的規(guī)模再加上更加成熟的量化技術(shù),模型可以在時(shí)間或內(nèi)存受限的情況下變得更小。
而這也讓如今的大模型產(chǎn)品比Chinchilla出現(xiàn)之前運(yùn)行得更快。
回想2010年代初,谷歌曾深入研究延遲對(duì)搜索引擎使用影響的問題,得出的結(jié)論是:「這非常重要」。
當(dāng)搜索引擎反應(yīng)慢時(shí),人們就會(huì)減少使用,即使搜索結(jié)果的質(zhì)量值得等待。
機(jī)器學(xué)習(xí)產(chǎn)品也是如此。
產(chǎn)品周期興起
2020年,作者設(shè)想了這樣一個(gè)未來。其中,除了擴(kuò)大規(guī)模之外,幾乎不需要什么新的想法。
有人開發(fā)了一款對(duì)普通人來說足夠有用的AI驅(qū)動(dòng)應(yīng)用程序。
這種極大提升工作效率的工具,基于的可能是GPT-3或更大規(guī)模的模型。就像最早的電腦、Lotus Notes或Microsoft Excel一樣,改變了商業(yè)世界。
假設(shè)這個(gè)應(yīng)用程序可以掙到足夠的收入,來維持自己的改進(jìn)。
如果這種提高效率的方式足夠有價(jià)值,并且在考慮到運(yùn)算和訓(xùn)練成本之后還能賺取利潤(rùn),那么你就真正成功了。大公司會(huì)購買你的工具,付費(fèi)客戶的增加會(huì)帶來更多的資金和投資。然后,這些資金又可以用于購買更多的硬件,從而能夠進(jìn)行更大規(guī)模的訓(xùn)練。
這種基于規(guī)模的思路意味著,研究會(huì)更加集中于少數(shù)幾個(gè)有效的想法上。
隨著模型變得越來越大、性能越來越好,研究將會(huì)聚集在一小部分已經(jīng)證明能隨著計(jì)算能力增長(zhǎng)而有效擴(kuò)展的方法上。這種現(xiàn)象已經(jīng)在深度學(xué)習(xí)領(lǐng)域發(fā)生,并且仍在繼續(xù)。當(dāng)更多領(lǐng)域采用相同的技術(shù)時(shí),知識(shí)的共享會(huì)變得更加頻繁,從而促進(jìn)了更優(yōu)質(zhì)的研究成果的誕生。或許在未來五年內(nèi),我們會(huì)有一個(gè)新的術(shù)語來接替深度學(xué)習(xí)的位置。
現(xiàn)在看來,作者認(rèn)為不太可能的一切,都成真了。
ChatGPT已經(jīng)迅速走紅,并激發(fā)了大批競(jìng)爭(zhēng)對(duì)手。它雖然不是最強(qiáng)的生產(chǎn)力工具,但已足以讓人們?cè)敢鉃榇烁顿M(fèi)。
雖然大多數(shù)AI服務(wù)雖有盈利潛力,但為了追求增長(zhǎng)還是選擇虧損經(jīng)營(yíng)。據(jù)說,微軟會(huì)因?yàn)镚ithub Copilot上每增加一位用戶而每月虧損20美元,不過Midjourney已經(jīng)實(shí)現(xiàn)了盈利。
不過,這已經(jīng)足夠讓科技巨頭和風(fēng)投公司投入數(shù)十億美元,來購買硬件和招募機(jī)器學(xué)習(xí)人才了。
深度學(xué)習(xí)已成昨日黃花——現(xiàn)在,人們談?wù)摰氖恰复笳Z言模型」、「生成式AI」,以及「提示工程」。
現(xiàn)在看來,Transformer將比機(jī)器學(xué)習(xí)歷史上的任何架構(gòu)都要走得更遠(yuǎn)。
試著再次說不
現(xiàn)在,讓我們?cè)賮硖接懸幌拢骸讣僭O(shè)通用人工智能(AGI)會(huì)在不久的將來成為可能,我們將如何實(shí)現(xiàn)?」
首先,依然可以認(rèn)為,進(jìn)步主要來自更強(qiáng)的計(jì)力和更大的規(guī)模??赡懿皇腔诂F(xiàn)有的Transformer技術(shù),而是某種更為高效的「Transformer替代者」。(比如Mamba或其他狀態(tài)空間模型)
只要有足夠的算力和數(shù)據(jù),增加代碼中的參數(shù)量并不難,因此,主要的瓶頸還是在于算力和數(shù)據(jù)的獲取上。
當(dāng)前的現(xiàn)狀是這樣一個(gè)循環(huán):機(jī)器學(xué)習(xí)推動(dòng)產(chǎn)品的發(fā)展,產(chǎn)品帶來資金,資金又進(jìn)一步推動(dòng)機(jī)器學(xué)習(xí)的進(jìn)步。
問題在于,是否有什么因素會(huì)讓這種「縮放定律」失效。
論文地址:https://arxiv.org/abs/2312.00752
芯片方面,就算價(jià)格持續(xù)上升,甚至到了限制模型進(jìn)一步擴(kuò)大的地步,人們也仍然會(huì)希望在自己的手機(jī)上運(yùn)行GPT-4大小的模型。
相比之下,數(shù)據(jù)的獲取似乎是更大的挑戰(zhàn)。
我們已經(jīng)嘗試了將互聯(lián)網(wǎng)上的所有內(nèi)容作為訓(xùn)練數(shù)據(jù),但這也讓實(shí)驗(yàn)室很難在公開數(shù)據(jù)上脫穎而出。
現(xiàn)在,模型之間的區(qū)別,主要來自于非公開高質(zhì)量數(shù)據(jù)的使用。
據(jù)說GPT-4在編程方面表現(xiàn)出色,部分原因是OpenAI投入了大量時(shí)間、精力和金錢,來獲取優(yōu)質(zhì)的編程數(shù)據(jù)。
Adobe甚至公開征集「500到1000張現(xiàn)實(shí)生活中的香蕉照片」來支持他們的AI項(xiàng)目。
而Anthropic曾經(jīng)也有一個(gè)專門的「tokens」團(tuán)隊(duì)來獲取和分析數(shù)據(jù)。
每個(gè)人都想要優(yōu)質(zhì)的數(shù)據(jù),并且愿意為此付費(fèi)。因?yàn)榇蠹叶枷嘈?,只要能得到這些數(shù)據(jù),模型就可以有效地利用它們。
到目前為止,所有的縮放定律都遵循冪律,包括數(shù)據(jù)集大小。
看來,僅靠手工獲取數(shù)據(jù)已經(jīng)不足以邁過下一個(gè)門檻了。我們需要找到更好的方法來獲得高質(zhì)量數(shù)據(jù)。
很久以前,當(dāng)OpenAI還在通過游戲和模擬環(huán)境進(jìn)行強(qiáng)化學(xué)習(xí)研究時(shí),Ilya曾經(jīng)說過,他們非??粗匾环N叫做自我對(duì)弈的方法,因?yàn)樗軌虬延?jì)算過程轉(zhuǎn)化為有價(jià)值的數(shù)據(jù)。
通過這種方式,AI不僅可以從自己與環(huán)境的互動(dòng)中學(xué)習(xí),還能在技能上實(shí)現(xiàn)飛躍性的進(jìn)步。但遺憾的是,這只在特定的環(huán)境下有效,比如規(guī)則明確、實(shí)體數(shù)量有限的游戲環(huán)境。
如今,我們把這種基于自我對(duì)弈的方法,用在了提升大語言模型的能力上。
想象一下,對(duì)話就是AI的「環(huán)境」,它通過生成文本來「行動(dòng)」,而這些行動(dòng)的好壞會(huì)由一個(gè)獎(jiǎng)勵(lì)模型來評(píng)判。
與過去直接使用真實(shí)數(shù)據(jù)不同,現(xiàn)在的模型可能已經(jīng)能夠自己生成足夠優(yōu)質(zhì)的數(shù)據(jù)(即「合成數(shù)據(jù)」)來進(jìn)行學(xué)習(xí)。
有學(xué)者發(fā)現(xiàn),GPT-4在標(biāo)注上的準(zhǔn)確性可以與人類相媲美。
論文地址:https://arxiv.org/abs/2304.03279
此外,基于擴(kuò)散技術(shù)的圖像增強(qiáng),已經(jīng)被證明可以幫助機(jī)器人學(xué)習(xí)。
而Anthropic則在其憲法AI和基于AI反饋的強(qiáng)化學(xué)習(xí)(RLAIF)上做了大量的工作,包括最近爆火的Claude 3。
甚至,NeurIPS還舉辦過一個(gè)關(guān)于合成數(shù)據(jù)的研討會(huì)。
2024年的LLM,就好似2016年的圖像分類。那時(shí),研究人員為了擴(kuò)充自己的數(shù)據(jù)集,紛紛開始使用生成對(duì)抗網(wǎng)絡(luò)(GAN)。
作者表示,自己的第一篇論文GraspGAN講的就是這件事。
論文地址:https://arxiv.org/abs/1709.07857
如果模型不是像「貪吃蛇」那樣在自我循環(huán),我們最終面對(duì)的可能是一個(gè)越來越不需要人類數(shù)據(jù)的世界。
在這里,進(jìn)步完全取決于你能向系統(tǒng)投入多少算力(FLOPs)。
即便合成數(shù)據(jù)的準(zhǔn)確度不如人工標(biāo)注的數(shù)據(jù),但它成本低啊。
最終,人類的直接反饋可能只會(huì)被用于建立新的獎(jiǎng)勵(lì)模型,或者對(duì)現(xiàn)有數(shù)據(jù)進(jìn)行質(zhì)量檢查。
而其他所有的一切,都將由模型生成和監(jiān)督,從而形成一個(gè)自我反饋的循環(huán)。
現(xiàn)在的語言模型,就好比是互聯(lián)網(wǎng)上一張模糊的JPEG圖片,原因在于其文本的品質(zhì)不佳,并不適合作為訓(xùn)練材料。對(duì)互聯(lián)網(wǎng)進(jìn)行「模糊處理」是我們目前能做的最好嘗試。
但如果情況發(fā)生變化,LLM能夠成為比互聯(lián)網(wǎng)本身更清晰的信息源,我們又將面對(duì)什么樣的未來呢?
搜索和Q*
在Sam Altman罷免事件期間,路透社報(bào)道了一種名為Q*的方法,引起了廣泛猜測(cè)。而圈內(nèi)的研究人員普遍認(rèn)為這是一種基于Q學(xué)習(xí)的搜索過程。
最后,Yann LeCun發(fā)表了一篇文章,呼吁大家冷靜,因?yàn)閹缀趺總€(gè)研究團(tuán)隊(duì)都在嘗試將搜索技術(shù)與大語言模型(LLM)結(jié)合,如果有人成功實(shí)現(xiàn)了這一點(diǎn),其實(shí)并不令人意外。
早在2014年,DeepMind就曾在一篇論文中指出卷積神經(jīng)網(wǎng)絡(luò)(CNN)能有效評(píng)估圍棋棋步。通過引入蒙特卡洛樹搜索(MCTS)技術(shù),不到一年就發(fā)展出了AlphaGo。
而這也成為了過去十年機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)里程碑。
雖然搜索需要消耗巨大的計(jì)算資源,但它作為機(jī)器學(xué)習(xí)中最可靠的方法之一,終究還是可以通向成功的。
以MuZero為例,在每個(gè)棋盤游戲中,如果使用16個(gè)TPU進(jìn)行訓(xùn)練,1000個(gè)TPU進(jìn)行自我對(duì)弈,就意味著算力的需求增加了大約100倍。
這一切聽起來有多可信?
總體而言,作者認(rèn)為將模型繼續(xù)擴(kuò)展下去是可行的。一些看上去的瓶頸實(shí)際上可能不那么重要,解決方法總會(huì)被找到的。
至少到目前為止,作者認(rèn)為「縮放定律」都還沒有遇到真正的障礙。
炒作
2016年,一些知名的機(jī)器學(xué)習(xí)研究人員決定開個(gè)大玩笑。
他們創(chuàng)建了一個(gè)名為「Rocket AI」的網(wǎng)站,聲稱是基于一種名為「時(shí)間遞歸最優(yōu)學(xué)習(xí)」(TROL)的神秘方法,并編造了一個(gè)在NeurIPS 2016上被警方終止的瘋狂發(fā)布派對(duì)的故事。
文章末尾有一段引人深思的話:「人工智能正處于炒作的高峰期,這一點(diǎn)社區(qū)里的每個(gè)人都心知肚明?!?/span>
有趣的是,下圖展示了自2016年以來「AI」在Google搜索趨勢(shì)上的表現(xiàn)。不得不說,當(dāng)時(shí)的人還是天真了……
在AI領(lǐng)域,模型永遠(yuǎn)無法完全實(shí)現(xiàn)宣稱的能力,但它們能做的事情卻在不斷擴(kuò)展,從未有過倒退。
正如今天的人工智能,將會(huì)是歷史上最差的一樣。
樂觀者與悲觀者
在通用人工智能(AGI)中,存在一個(gè)樂觀派和眾多悲觀派。
樂觀派相信,我們能夠找到方法擴(kuò)展模型的規(guī)模,并且通過擴(kuò)大的模型解決所有其他難題。
而悲觀派則從不同角度出發(fā),認(rèn)為進(jìn)步將因?yàn)槟承┰蚨啪徎蛲?/span>
面對(duì)數(shù)據(jù)來源的挑戰(zhàn)
生成式人工智能(AI)是否正在通過向互聯(lián)網(wǎng)上傳播大量低質(zhì)量的文本,使得自己的訓(xùn)練過程變得更加艱難?
這在短期內(nèi)極為重要,但隨著時(shí)間的推移,我們終將會(huì)找到解決方案。
整個(gè)關(guān)于「AI自我對(duì)弈」的討論基于一個(gè)假設(shè),即我們將達(dá)到一個(gè)臨界點(diǎn),屆時(shí)經(jīng)過篩選的大語言模型(LLM)文本將足以作為訓(xùn)練材料。
現(xiàn)在,每當(dāng)有表現(xiàn)出色的大語言模型(LLM)出現(xiàn)時(shí),總會(huì)有人懷疑這是否因?yàn)闇y(cè)試集泄露,畢竟這種情況以前發(fā)生過,而且越來越難以排除這種可能性。
這無疑給研究帶來了阻礙,特別是在進(jìn)行模型評(píng)估本身就變得成本高昂的情況下。
然而作者認(rèn)為,盡管這是一個(gè)挑戰(zhàn),但它不會(huì)對(duì)研究構(gòu)成根本性的威脅。
自2016年以來,機(jī)器學(xué)習(xí)領(lǐng)域就一直面臨著「基準(zhǔn)測(cè)試既昂貴又不準(zhǔn)確」的問題,但我們?nèi)匀徽业搅讼蚯巴七M(jìn)的途徑。
面對(duì)「縮放」的挑戰(zhàn)
對(duì)于每一個(gè)成功的LLaMa模型,都有一個(gè)Meta OPT模型無法達(dá)到預(yù)期。
如果你有空,可以看看OPT團(tuán)隊(duì)發(fā)布的一份詳盡的問題記錄。其中記錄了感恩節(jié)期間發(fā)生的梯度溢出,一個(gè)因庫意外升級(jí)而導(dǎo)致的激活范數(shù)異常上升的神秘問題等等。
擴(kuò)展機(jī)器學(xué)習(xí)模型的規(guī)模,并非簡(jiǎn)單的增加數(shù)字、增加硬件、然后突然達(dá)到最先進(jìn)水平的過程。這不僅需要機(jī)器學(xué)習(xí)的專業(yè)知識(shí),還需要一種通過實(shí)踐經(jīng)驗(yàn)而不是閱讀論文而得到的「專業(yè)知識(shí)」。
因此,有這樣一個(gè)觀點(diǎn)認(rèn)為:理解如何擴(kuò)展機(jī)器學(xué)習(xí)模型訓(xùn)練本身就是一個(gè)研究課題,并且它無法僅通過擴(kuò)展來解決。最終,問題越來越演棘手,以至于讓進(jìn)展陷入停滯。
考慮到過去計(jì)算能力擴(kuò)展的歷史,以及阿波羅計(jì)劃(支持更大火箭的發(fā)射)和曼哈頓計(jì)劃(生產(chǎn)更多濃縮鈾)等大型項(xiàng)目的成功,作者并不特別認(rèn)同這一觀點(diǎn)。但同時(shí),也沒有確鑿的反駁理由。
面對(duì)物理具身的挑戰(zhàn)
在機(jī)器學(xué)習(xí)領(lǐng)域,一個(gè)經(jīng)典的討點(diǎn)是智能是否依賴于物理形態(tài)。
考慮到模型在語言、語音和視覺數(shù)據(jù)處理上的能力,我們不禁要問,人類擁有哪些它所沒有的感官輸入?
這個(gè)問題似乎集中在與物理形態(tài)相關(guān)的感官上,例如味覺和觸覺。
那么,我們能否說智能的發(fā)展受到這些感官刺激的限制呢?
人們通過接觸和感受大量的刺激來學(xué)習(xí)和成長(zhǎng),而機(jī)器學(xué)習(xí)模型的途徑則不同。
盡管大模型不必完全仿照人類的學(xué)習(xí)方式,但有這樣一個(gè)觀點(diǎn):
1. 定義通用人工智能(AGI)為一個(gè)在幾乎所有(95%以上)具有經(jīng)濟(jì)價(jià)值的工作中能夠匹敵甚至超過人類的AI系統(tǒng);
2. 這95%+的工作將涉及到執(zhí)行物理的、現(xiàn)實(shí)世界中的行動(dòng);
3. 目前,大部分輸入到模型中的數(shù)據(jù)并不是基于實(shí)體的。如果我們認(rèn)為規(guī)模是解決問題的關(guān)鍵,那么缺乏基于實(shí)體的數(shù)據(jù)將會(huì)成為擴(kuò)展的障礙。
對(duì)此,作者認(rèn)為,目前智能的發(fā)展并不僅僅受限于來自物理刺激的數(shù)據(jù),但要在現(xiàn)實(shí)任務(wù)中取得好成績(jī),這無疑是一個(gè)關(guān)鍵因素。
最近,有很多關(guān)于如何提高機(jī)器人學(xué)習(xí)中實(shí)體數(shù)據(jù)可用性的工作,例如Open X-Embodiment項(xiàng)目,以及各類數(shù)據(jù)集,如Something-Something和Ego4D。
這些數(shù)據(jù)集的規(guī)模可能還不夠大,但我們可以通過模型生成方法來解決。
作者之所以共同負(fù)責(zé)AutoRT項(xiàng)目,是因?yàn)樘剿骰趯?shí)體的基礎(chǔ)模型,并推動(dòng)更多基于實(shí)體的數(shù)據(jù)獲取是非常重要的。
對(duì)此,作者表示,自己更傾向于擁有一個(gè)笨拙的物理助手,而不是一個(gè)超級(jí)智能的軟件助手。
后者固然有用,但在也更加令人擔(dān)憂。