參數(shù)少量提升,性能指數(shù)爆發(fā)!谷歌:大語言模型暗藏「神秘技能」
由于可以做一些沒訓(xùn)練過的事情,大型語言模型似乎具有某種魔力,也因此成為了媒體和研究員炒作和關(guān)注的焦點。
當(dāng)擴展大型語言模型時,偶爾會出現(xiàn)一些較小模型沒有的新能力,這種類似于「創(chuàng)造力」的屬性被稱作「突現(xiàn)」能力,代表我們向通用人工智能邁進了一大步。
如今,來自谷歌、斯坦福、Deepmind和北卡羅來納大學(xué)的研究人員,正在探索大型語言模型中的「突現(xiàn)」能力。
解碼器提示的 DALL-E
神奇的「突現(xiàn)」能力
自然語言處理(NLP)已經(jīng)被基于大量文本數(shù)據(jù)訓(xùn)練的語言模型徹底改變。擴大語言模型的規(guī)模通常會提高一系列下游NLP任務(wù)的性能和樣本效率。
在許多情況下,我們可以通過推斷較小模型的性能趨勢預(yù)測大型語言模型的性能。例如,規(guī)模對語言模型困惑的影響已被驗證跨越超過七個數(shù)量級。
然而,某些其他任務(wù)的性能卻并沒有以可預(yù)測的方式提高。
例如,GPT-3的論文表明,語言模型執(zhí)行多位數(shù)加法的能力對于從100M到13B參數(shù)的模型具有平坦的縮放曲線,近似隨機,但會在一個節(jié)點造成性能的飛升。
鑒于語言模型在NLP研究中的應(yīng)用越來越多,因此更好地理解這些可能意外出現(xiàn)的能力非常重要。
在近期發(fā)表在機器學(xué)習(xí)研究(TMLR)上的論文「大型語言模型的突現(xiàn)能力」中,研究人員展示了數(shù)十個擴展語言模型所產(chǎn)生的「突現(xiàn)」能力的例子。
這種「突現(xiàn)」能力的存在提出了一個問題,即額外的縮放是否能進一步擴大語言模型的能力范圍。
某些提示和微調(diào)方法只會在更大的模型中產(chǎn)生改進
「突現(xiàn)」提示任務(wù)
首先,我們討論在提示任務(wù)中可能出現(xiàn)的「突現(xiàn)」能力。
在此類任務(wù)中,預(yù)先訓(xùn)練的語言模型會被提示執(zhí)行下一個單詞預(yù)測的任務(wù),并通過完成響應(yīng)來執(zhí)行任務(wù)。
如果沒有任何進一步的微調(diào),語言模型通常可以執(zhí)行訓(xùn)練期間沒有看到的任務(wù)。
當(dāng)任務(wù)在特定規(guī)模閾值下不可預(yù)測地從隨機性能飆升至高于隨機性能時,我們將其稱為「突現(xiàn)」任務(wù)。
下面我們展示了三個具有「突現(xiàn)」表現(xiàn)的提示任務(wù)示例:多步算術(shù)、參加大學(xué)水平的考試和識別單詞的預(yù)期含義。
在每種情況下,語言模型的表現(xiàn)都很差,對模型大小的依賴性很小,直到達到某個閾值——它們的性能驟升。
對于足夠規(guī)模的模型,這些任務(wù)的性能只會變得非隨機——例如,算術(shù)和多任務(wù)NLU任務(wù)的訓(xùn)練每秒浮點運算次數(shù)(FLOP)超過10的22次方,上下文任務(wù)中單詞的訓(xùn)練FLOP超過10的24次方。
「突現(xiàn)」提示策略
第二類「突現(xiàn)」能力包括增強語言模型能力的提示策略。
提示策略是用于提示的廣泛范式,可應(yīng)用于一系列不同的任務(wù)。當(dāng)它們對小型模型失敗并且只能由足夠大的模型使用時,它們被認為是可「突現(xiàn)」的。
思維鏈提示是「突現(xiàn)」提示策略的一個典型示例,提示模型在給出最終答案之前生成一系列中間步驟。
思維鏈提示使語言模型能夠執(zhí)行需要復(fù)雜推理的任務(wù),例如多步數(shù)學(xué)單詞問題。
值得一提的是,模型無需經(jīng)過明確培訓(xùn)即可獲得思維鏈推理的能力,下圖則顯示了一個思維鏈提示的示例。
思維鏈提示的實證結(jié)果如下所示。
對于較小的模型,應(yīng)用思維鏈提示并不會優(yōu)于標(biāo)準(zhǔn)提示,例如當(dāng)應(yīng)用于GSM8K時,這是一個具有挑戰(zhàn)性的數(shù)學(xué)文字問題基準(zhǔn)。
然而對于大型模型,思維鏈提示在GSM8K上達到了57%的解決率,在我們的測試中性能顯著提升。
研究「突現(xiàn)」能力的意義
那么研究「突現(xiàn)」能力,又究竟有什么意義呢?
識別大型語言模型中的「突現(xiàn)」能力,是理解此類現(xiàn)象及其對未來模型能力的潛在影響的第一步。
例如,由于「突現(xiàn)」小樣本提示能力和策略沒有在預(yù)訓(xùn)練中明確編碼,研究人員可能不知道當(dāng)前語言模型的小樣本提示能力的全部范圍。
此外,進一步擴展是否會潛在地賦予更大的模型「突現(xiàn)」能力,這個問題同樣十分重要。
- 為什么會出現(xiàn)「突現(xiàn)」能力?
- 當(dāng)某些能力出現(xiàn)時,語言模型的新現(xiàn)實世界應(yīng)用會被解鎖嗎?
- 由于計算資源昂貴,能否在不增加擴展性的情況下通過其他方法解鎖突現(xiàn)」能力(例如更好的模型架構(gòu)或訓(xùn)練技術(shù))?
研究人員表示,這些問題尚且不得而知。
不過隨著NLP領(lǐng)域的不斷發(fā)展,分析和理解語言模型的行為,包括由縮放產(chǎn)生的「突現(xiàn)」能力,是十分重要的。