LLM仍然不能規(guī)劃,刷屏的OpenAI o1遠未達到飽和
規(guī)劃行動方案以實現(xiàn)所需狀態(tài)的能力一直被認為是智能體的核心能力。隨著大型語言模型(LLM)的出現(xiàn),人們對 LLM 是否具有這種規(guī)劃能力產(chǎn)生了極大的興趣。
最近,OpenAI 發(fā)布了 o1 模型,一舉創(chuàng)造了很多歷史記錄。o1 模型擁有真正的通用推理能力。在一系列高難基準測試中展現(xiàn)出了超強實力,相比 GPT-4o 有巨大提升,讓大模型的上限從「沒法看」直接上升到優(yōu)秀水平,不專門訓(xùn)練直接數(shù)學(xué)奧賽金牌,甚至能在博士級別的科學(xué)問答環(huán)節(jié)上超越人類專家。
那么,o1 模型是否具備上述規(guī)劃能力?
2022 年,來自亞利桑那州立大學(xué)(ASU)的研究團隊開發(fā)了評估 LLM 規(guī)劃能力的基準 ——PlanBench?,F(xiàn)在,亞利桑那州立大學(xué)研究團隊全面審視了當(dāng)前 LLM 在 PlanBench 上的表現(xiàn),包括 o1 模型。值得注意的是,雖然 o1 在基準測試上性能超過了競爭對手,但它還遠未達到飽和狀態(tài)。
- 論文標題:LLMs Still Can't Plan; Can LRMs? A Preliminary Evaluation of OpenAI's o1 on PlanBench
- 論文地址:https://arxiv.org/pdf/2409.13373
SOTA 性能的 LLM 仍然不會規(guī)劃
對于 vanilla LLM(通過 RLHF 微調(diào)的 Transformer 模型)來說,PlanBench 基準仍然充滿挑戰(zhàn),即使在最簡單的測試集上,模型表現(xiàn)也不佳。
下表為當(dāng)前和前一代 LLM 的結(jié)果,測試領(lǐng)域包括 Blocksworld 和 Mystery Blocksworld(混淆版本),其中前者是在 600 個 3 到 5 個 block Blocksworld 問題靜態(tài)測試集上運行的結(jié)果,后者是在 600 個語義相同但語法混淆的實例(稱之為 Mystery Blocksworld)上的運行結(jié)果。
在這些模型中,LLaMA 3.1 405B 在常規(guī) Blocksworld 測試中表現(xiàn)最佳,準確率達到 62.6%。然而模型在 Mystery Blocksworld 的表現(xiàn)卻遠遠落后——沒有一個 LLM 在測試集上達到 5%,并且在一個領(lǐng)域上的性能并不能清楚地預(yù)測另一個領(lǐng)域的性能。
這種結(jié)果揭示了 LLM 本質(zhì)上仍是近似檢索系統(tǒng)。
更進一步的,作者測試了自然語言提示和 PDDL,發(fā)現(xiàn) vanilla 語言模型在前者上的表現(xiàn)更好。
作者還發(fā)現(xiàn),與之前的說法相反,one-shot 提示并不是對 zero-shot 的嚴格改進。這在對 LLaMA 系列模型的測試中最為明顯。
值得注意的是,基準測試的原始迭代沒有考慮效率,因為 vanilla LLM 生成某些輸出所花費的時間僅取決于該輸出的長度,而與實例的語義內(nèi)容或難度無關(guān)。不過作者也對各個模型的提示成本進行了比較,如表格 4 所示。
從近似檢索到近似推理:評估 o1
標準自回歸 LLM 通過近似檢索生成輸出,但這些模型面臨一個問題,即在 System 1 任務(wù)中表現(xiàn)出色,但在對規(guī)劃任務(wù)至關(guān)重要的類似 System 2 的近似推理能力上表現(xiàn)不佳。
回顧之前的研究,從 LLM 中獲取可靠規(guī)劃能力的最佳方法是將它們與生成測試框架中的外部驗證器配對,即所謂的 LLM-Modulo 系統(tǒng)。o1 嘗試以不同的方式為底層 LLM 補充類似 System 2 的能力。
據(jù)了解,o1 是將底層 LLM(很可能是經(jīng)過修改的 GPT-4o)結(jié)合到 RL 訓(xùn)練的系統(tǒng)中,該系統(tǒng)可指導(dǎo)私有 CoT 推理軌跡的創(chuàng)建、管理和最終選擇。但是目前確切的細節(jié)很少,因此只能推測其確切機制。
作者猜測 o1 和 LLM 之間有兩個主要區(qū)別:一個額外的強化學(xué)習(xí)預(yù)訓(xùn)練階段和一個新的自適應(yīng)擴展推理程序。無論如何,從現(xiàn)有細節(jié)可以看出,該模型在本質(zhì)上與以前的 LLM 根本不同。
在原始測試集上評估 LRM:作者在靜態(tài) PlanBench 測試集上測試了 o1-preview 和 o1-mini,結(jié)果如表 2 所示。其中,600 個 Blocksworld 實例范圍從 3 到 5 個 block 不等,需要 2 到 16 個 step 的規(guī)劃才能解決。
結(jié)果顯示,o1 正確回答了 97.8% 的這些實例,但在 Mystery Blocksworld 上,o1 沒有保持這種性能,但也遠遠超過了以前的模型,正確回答了 52.8% 的實例。
標準 LLM CoT 提示方法很脆弱,無法隨著問題規(guī)模的擴大而穩(wěn)健地擴展。作者在一組較大的 Blocksworld 問題上測試了這些模型(見圖 3)。此集合中的問題長度從 6 到 20 個 block 不等,需要 20 到 40 step 的最佳規(guī)劃。
作者發(fā)現(xiàn)模型性能從之前報告的 97.8% 迅速下降。事實上,在這組實例中,o1-preview 僅實現(xiàn)了 23.63% 的準確率??梢钥闯鲭m然這些模型總體上令人印象深刻,但這表明它們的性能仍然遠不夠穩(wěn)健。
在不可解決實例上的性能:接著作者修改了測試集中的一些實例,結(jié)果如表 3 所示。在 Blocksworld 上,只有 27% 的實例被 o1 正確且明確地識別為無法解決。在所有案例中,有 19% 的模型返回一個點或「empty plan」標記,沒有任何解釋或指示無法解決。在其余 54% 的案例中,模型生成了一個完整的規(guī)劃。
在隨機 Mystery Blocksworld 上,這些數(shù)字更糟:16% 的案例被正確識別為無法解決,5% 返回了一個「empty plan」,其余 79% 的案例得到了完整規(guī)劃的回答。
準確率 / 成本權(quán)衡與保證
研究團隊發(fā)現(xiàn):o1-preview 似乎在每個問題使用的推理 token 數(shù)量方面受到限制。如果 o1 的正式版本消除了這一限制,可能會提高整體準確性,但也可能導(dǎo)致更不可預(yù)測(甚至高得離譜)的推理成本。o1-mini 雖然更便宜,但通常性能較差。