田淵棟給OpenAI神秘Q*項目潑冷水:合成數(shù)據(jù)不是AGI救星,能力僅限簡單數(shù)學題
Q*猜想,持續(xù)在AI社區(qū)火爆。
大家都在猜測,Q*是否就是「Q-learning + A*」。
AI大牛田淵棟也詳細分析了一番,「Q*=Q-learning+A*」的假設,究竟有多大可能性。
與此同時,越來越多人給出判斷:合成數(shù)據(jù),就是LLM的未來。
不過,田淵棟對這種說法潑了冷水。
我部分不同意「AGI只需通過放大合成數(shù)據(jù)就能解決」的說法。
搜索之所以強大,是因為如果環(huán)境設計得當,它將創(chuàng)造出無限多的新模式供模型學習和適應。
然而,學習這樣的新模式是否需要數(shù)十億的數(shù)據(jù),仍是一個未決問題,這可能表明,我們的架構(gòu)/學習范式存在一些根本性缺陷。
相比之下,人類往往更容易通過「啊哈」時刻,來發(fā)現(xiàn)新的范式。
而英偉達高級科學家Jim Fan也對此表示同意:合成數(shù)據(jù)將發(fā)揮重要作用,但僅僅是通過盲目擴展,并不足以達到 AGI。
Q*=Q-learning+A,有多大可能
田淵棟表示,根據(jù)自己過去在 OpenGo(AlphaZero 的再現(xiàn))上的經(jīng)驗,A* 可被視為只帶有值(即啟發(fā)式)函數(shù)Q的確定性MCTS版本。
A*很適用于這樣的任務:給定行動后,狀態(tài)很容易評估;但給定狀態(tài)后,行動卻很難預測。符合這種情況的一個典型例子,就是數(shù)學問題。
相比之下,圍棋卻是另一番景象:下一步候選棋相對容易預測(只需通過檢查局部形狀),但要評估棋盤形勢,就棘手得多。
這就是為什么我們也有相當強大的圍棋機器人,但它們只利用了策略網(wǎng)絡。
對于LLM,使用 Q(s,a)可能會有額外的優(yōu)勢,因為評估 Q(s,a) 可能只需要預填充,而預測策略a = pi(s) ,則需要自回歸采樣,這就要慢得多。另外,在只使用解碼器的情況下,s的KV緩存可以在多個操作中共享。
傳說中的Q*,已經(jīng)在解決數(shù)學問題上有了重大飛躍,這種可能性又有多大呢?
田淵棟表示,自己是這樣猜測的:因為解決的入門級數(shù)學問題,所以值函數(shù)設置起來應該相對容易一些(例如,可以從自然語言形式的目標規(guī)范中預測)。
如果想要解決困難的數(shù)學問題,卻不知道如何該怎么做,那么這種方法可能還不夠。
LeCun轉(zhuǎn)發(fā)了田淵棟的討論,對他的觀點表示贊同——「他解釋了A*(在圖形中搜索最短路徑)和MCTS(在指數(shù)增長的樹中搜索)之間適用性的差異?!?/span>
對于LeCun的轉(zhuǎn)發(fā),田淵棟表示,自己一直在做許多不同的事情,包括規(guī)劃、理解Transformers/LLM和高效的優(yōu)化技術(shù),希望能把這些技術(shù)都結(jié)合起來。
有網(wǎng)友表示懷疑稱,「要使A*有效,就需要一個可證明的、可接受且一致的啟發(fā)式函數(shù)。但我非常懷疑能有人想出這樣的函數(shù),因為確定子序列的值并不容易?!?/span>
即使做出的是小學數(shù)學題,Q*也被寄予厚望
對大模型稍微有些了解的人都知道,如果擁有解決基本數(shù)學問題的能力,就意味著模型的能力取得了重大飛躍。
這是因為,大模型很難在訓練的數(shù)據(jù)之外進行泛化。
AI訓練初創(chuàng)公司Tromero的聯(lián)合創(chuàng)始人Charles Higgins表示,現(xiàn)在困擾大模型的關(guān)鍵按難題,就是怎樣對抽象概念進行邏輯推理,如果實現(xiàn)了這一步,就是毫無疑問的重大飛躍。
數(shù)學是關(guān)于符號推理的學問,比如,如果X比Y大,Y比Z大,那么X就比Z大。
如果Q*的確就是Q-learning+A*,這就表明,OpenAI的全新模型可以將支持ChatGPT的深度學習技術(shù)與人類編程的規(guī)則相結(jié)合。而這種方法,可以幫助解決LLM的幻覺難題。
Tromero聯(lián)創(chuàng)Sophia Kalanovska表示,這具有非常重要的象征意義,但在實踐層面上,它不太可能會終結(jié)世界。
那為什么坊間會有「Q*已現(xiàn)AGI雛形」的說法傳出呢?
Kalanovska認為,從目前傳出的說法看來,Q*能夠結(jié)合大腦的兩側(cè),既能從經(jīng)驗中了解一些事情,還能同時推理事實。
顯然,這就離我們公認的智能又近了一步,因為Q*很可能讓大模型有了新的想法,而這是ChatGPT做不到的。
現(xiàn)有模型的最大限制,就是僅能從訓練數(shù)據(jù)中反芻信息,而不能推理和發(fā)展新的想法。
解決看不見的問題,就是創(chuàng)建AGI的關(guān)鍵一步。
薩里人類中心AI研究所的所長Andrew Rogoyski表示,現(xiàn)在已有的大模型,都可以做本科水平的數(shù)學題,但一旦遇到更高級的數(shù)學題,它們就全部折戟了。
但如果LLM真的能夠解決全新的、看不見的問題,這就是一件大事,即使做出的數(shù)學題是相對簡單的。
合成數(shù)據(jù)是未來LLM的關(guān)鍵?
所以,合成數(shù)據(jù)是王道嗎?
Q*的爆火引起一眾大佬的猜想,而對于傳聞中「巨大的計算資源,使新模型能夠解決某些數(shù)學問題」,大佬們猜測這重要的一步有可能是RLAIF(來自 AI 反饋的強化學習)。
RLAIF是一種由現(xiàn)成的 LLM 代替人類標記偏好的技術(shù),通過自動化人工反饋,使針對LLM的對齊操作更具可擴展性。
之前在LLM訓練中大放異彩的RLHF(基于人類反饋的強化學習) 可以有效地將大型語言模型與人類偏好對齊,但收集高質(zhì)量的人類偏好標簽是一個關(guān)鍵瓶頸。
于是Anthropic、Google等公司已經(jīng)嘗試轉(zhuǎn)向RLAIF,使用AI來代替人類完成反饋訓練的過程。
這也就意味著,合成數(shù)據(jù)才是王道,并且使用樹形結(jié)構(gòu)為以后提供越來越多的選擇,以得出正確的答案。
不久前Jim Fan就在推特上表示,合成數(shù)據(jù)將提供下一萬億個高質(zhì)量的訓練數(shù)據(jù)。
「我敢打賭,大多數(shù)嚴肅的LLM小組都知道這一點。關(guān)鍵問題是如何保持質(zhì)量并避免過早停滯不前?!?/span>
Jim Fan還引用了Richard S. Sutton的文章《The Bitter Lesson》,來說明,人工智能的發(fā)展只有兩種范式可以通過計算無限擴展:學習和搜索。
「在撰寫這篇文章的2019 年是正確的,而今天也是如此,我敢打賭,直到我們解決 AGI 的那一天?!?/span>
Richard S. Sutton是加拿大皇家學會和英國皇家學會的院士,他被認為是現(xiàn)代計算強化學習的創(chuàng)始人之一,對該領域做出了多項重大貢獻,包括時間差異學習和策略梯度方法。
在這篇文章中,Sutton主要表達了這樣幾個觀點:
利用計算的通用方法最終是最有效的,而且效率很高。但有效的原因在于摩爾定律,更確切地說是由于每單位計算成本持續(xù)呈指數(shù)下降。
最初,研究人員努力通過利用人類知識或游戲的特殊功能來避免搜索,而一旦搜索得到大規(guī)模有效應用,所有這些努力都會顯得無關(guān)緊要。
統(tǒng)計方法再次戰(zhàn)勝了基于人類知識的方法,這導致了整個自然語言處理領域的重大變化,幾十年來,統(tǒng)計和計算逐漸成為了主導。
人工智能研究人員經(jīng)常試圖將知識構(gòu)建到系統(tǒng)中,這在短期內(nèi)是有幫助的,但從長遠來看,有可能會阻礙進一步的進展。
突破性的進展最終將通過基于搜索和學習的方法來實現(xiàn)。
心靈的實際內(nèi)容是極其復雜的,我們應該停止嘗試尋找簡單的方法來表示思想,相反,我們應該只構(gòu)建可以找到并捕獲這種任意復雜性的元方法。
——所以,看起來Q*似乎抓住了問題的關(guān)鍵(搜索和學習),而合成數(shù)據(jù)將進一步使它突破以往的限制,達成自己的飛躍。
對于合成數(shù)據(jù),馬斯克也表示人類確實打不過機器。
「你可以把人類寫的每本書的文字都放在一個硬盤上(嘆氣),而合成數(shù)據(jù)將遠遠超過這些?!?/span>
對此,Jim Fan與馬斯克互動說,
「如果我們能大規(guī)模模擬它們,大量的合成數(shù)據(jù)將來自具身智能體,例如Tesla Optimus。」
Jim Fan認為 RLAIF 或者來自 groundtruth 反饋的 RLAIF 如果正確擴展將有很長的路要走。此外,合成數(shù)據(jù)還包括模擬器,原則上可以幫助LLM開發(fā)世界模型。
「理想情況下是無限的。但令人擔憂的是,如果自我提升循環(huán)不夠有效,就有可能會停滯不前?!?/span>
對于兩人的一唱一和,LeCun表示有話要說:
LeCun認為,動物和人類在訓練數(shù)據(jù)量極少的情況下,很快就變得非常聰明。
所以,使用更多的數(shù)據(jù)(合成或非合成)是一種暫時的權(quán)宜之計,只是因為我們目前的方法有局限性。
對此,支持「大數(shù)據(jù)派」的網(wǎng)友表示不服:
「難道不應該是數(shù)百萬年的進化適應類似于預訓練,而我們一生的經(jīng)驗類似于持續(xù)的微調(diào)嗎?」
LeCun于是給出一個例子作為解釋,人類用于承接幾百萬年進化成果的手段只有基因,而人類基因組中的數(shù)據(jù)量很小,只有800MB。
連一個小型的 7B LLM 都需要 14GB的存儲空間,相比之下,人類基因中確實沒有太多的數(shù)據(jù)。
另外,黑猩猩和人類基因組之間的差異約為1%(8MB)。這一點點差別完全不足以解釋人與黑猩猩之間能力的差異。
而說到后天學習的數(shù)據(jù)量,一個 2 歲的孩子看到的視覺數(shù)據(jù)總量是非常小的, 他所有的學習時間約 3200 萬秒(2x365x12x3600)。
人類有 200 萬根光神經(jīng)纖維,每根神經(jīng)纖維每秒傳輸大約 10 個字節(jié)?!@樣算下來總共有 6E14 個字節(jié)。
相比之下,LLM 訓練的數(shù)據(jù)量通常為 1E13 個token,約為 2E13 個字節(jié)?!?歲孩子獲得的數(shù)據(jù)量只相當于LLM的 30 倍。
不論大佬們的爭論如何,大型科技公司如Google、Anthropic、Cohere 等正在通過過程監(jiān)督或類似 RLAIF 的方法創(chuàng)建預訓練大小的數(shù)據(jù)集,為此耗費了巨大的資源。
所以大家都清楚,合成數(shù)據(jù)是擴大數(shù)據(jù)集的捷徑。在短期內(nèi),我們顯然可以利用它創(chuàng)建一些有用的數(shù)據(jù)。
只是這是否就是通往未來的道路?只能等待時間來告訴我們答案。