譯者 | 劉汪洋
審校 | 重樓
大語言模型(LLMs)在技術(shù)發(fā)展上取得了顯著突破。OpenAI 的 o3、Google 的 Gemini 2.0和 DeepSeek 的R1展現(xiàn)出了卓越的能力:它們能處理復雜問題、生成自然的對話內(nèi)容,甚至精確編寫代碼。業(yè)界常把這些先進的LLMs 稱為"推理模型",因為它們在分析和解決復雜問題時表現(xiàn)非凡。但我們需要思考一個關(guān)鍵問題:這些模型是否真的具備推理能力,還是僅僅在規(guī)劃方面特別出色?這個差異雖然細微,卻對理解 LLMs 的本質(zhì)至關(guān)重要。
讓我們通過兩個典型場景來理解這種區(qū)別。一名偵探在破案時,需要整合各種矛盾的證據(jù),識別虛假信息,并從有限線索中推導出合理結(jié)論。這個過程涉及推斷、矛盾處理和抽象思維。相比之下,象棋選手在計算致勝走法時,主要是在規(guī)劃最優(yōu)的行動序列。這兩個過程都需要多步驟思考,但偵探的工作需要更深入的推理能力,要在具體案例中運用抽象原理。而象棋選手更側(cè)重于規(guī)劃,專注于找出最優(yōu)的行動鏈。LLMs 的工作方式,實際上更接近象棋選手而非偵探。
理解差異:推理與規(guī)劃的本質(zhì)
要理解 LLMs 為何在規(guī)劃而非推理方面表現(xiàn)出色,我們需要先明確這兩個概念的區(qū)別。推理是一個復雜的認知過程,它通過邏輯和推斷從已知前提中得出新的結(jié)論。這包括識別和處理矛盾、生成新的見解而非簡單重組信息、在不確定條件下做出判斷,以及理解因果關(guān)系和進行假設(shè)性思考。
規(guī)劃則專注于構(gòu)建實現(xiàn)特定目標的行動序列。它依靠將復雜任務(wù)分解為可管理的步驟、應(yīng)用已知的解決方案、將學習到的模式遷移到相似問題中,以及執(zhí)行結(jié)構(gòu)化的行動序列。雖然這兩種能力都需要系統(tǒng)性思維,但推理要求更深層的抽象能力和推斷能力,而規(guī)劃主要是遵循既定程序,很少產(chǎn)生根本性的新認知。
LLMs的"推理"機制
現(xiàn)代 LLMs 采用了思維鏈(Chain of Thought, CoT)技術(shù)來增強其解決問題的能力。這種方法通過將問題分解為多個中間步驟,模擬人類的邏輯思考過程。讓我們通過一個具體的數(shù)學問題來分析這種機制:
如果一家商店的蘋果單價 2 美元,購買超過 5 個時每個可優(yōu)惠 1 美元,那么購買 7 個蘋果的總價是多少?
使用 CoT 技術(shù)的 LLM 會這樣處理:
- 計算原始總價:7 × $2 = $14
- 驗證優(yōu)惠條件:7個大于5個,滿足優(yōu)惠條件
- 計算優(yōu)惠金額:7 × $1 = $7
- 得出最終價格:$14 - $7 = $7
這種步驟分解方法確實降低了錯誤率,讓問題解決過程更加可靠。但這種看似推理的過程,本質(zhì)上是一種結(jié)構(gòu)化的問題解決方法,類似于執(zhí)行預設(shè)的流程。相比之下,真正的推理過程會直接認識到一個普遍規(guī)律:優(yōu)惠條件滿足時,每個蘋果的實際成本就是1美元。這種直觀的推斷對人類來說很自然,但 LLM 只能通過預設(shè)的計算步驟得出結(jié)論。
思維鏈的本質(zhì):規(guī)劃而非推理
思維鏈技術(shù)雖然提升了 LLMs 在數(shù)學問題和編程任務(wù)等領(lǐng)域的表現(xiàn),但這并不等同于真正的邏輯推理。這是因為 CoT 主要依賴于程序性知識,遵循預設(shè)的步驟,而不是產(chǎn)生真正的新見解。它缺乏對因果關(guān)系和抽象概念的深入理解,這導致模型在處理反事實推理或需要突破訓練數(shù)據(jù)限制的假設(shè)性場景時表現(xiàn)欠佳。此外,CoT 無法根本性地改變其解決問題的方法,這限制了它在面對全新場景時的適應(yīng)能力。
打造真正的推理型LLMs需要什么?
要讓 LLMs 具備真正的推理能力,需要在以下關(guān)鍵領(lǐng)域取得突破:
- 符號理解:人類通過操作抽象符號和關(guān)系進行推理。LLMs 需要建立真正的符號推理機制,可能需要將神經(jīng)網(wǎng)絡(luò)與形式邏輯系統(tǒng)結(jié)合,形成混合模型。
- 因果推斷能力:真正的推理需要理解事物之間的因果關(guān)系,而不僅僅是統(tǒng)計相關(guān)性。這要求模型能夠從數(shù)據(jù)中提煉出基本原理,而不是簡單地預測下一個可能出現(xiàn)的 Token (標記)。
- 自我反思和
- 常識與直覺:盡管 LLMs 可以訪問海量知識,但在基本常識推理方面仍然存在短板。這源于它們?nèi)狈π纬芍庇X的實際經(jīng)驗,難以識別對人類來說顯而易見的謬誤。改進這一點可能需要整合現(xiàn)實世界感知輸入,或利用知識圖譜來幫助模型更好地理解人類的認知方式。
結(jié)論
雖然 LLMs 展現(xiàn)出強大的問題解決能力,但它們的工作方式本質(zhì)上是依靠規(guī)劃技術(shù),而非真正的推理。無論是解決數(shù)學問題還是進行邏輯分析,它們主要是以結(jié)構(gòu)化方式組織已知模式,而不是深入理解問題的本質(zhì)原理。
認識到規(guī)劃與推理的區(qū)別對 AI 研究具有重要意義。如果我們把復雜的規(guī)劃能力誤解為真正的推理,就可能高估了 AI 系統(tǒng)的實際能力。發(fā)展真正具備推理能力的 AI 系統(tǒng),需要在符號邏輯、因果理解和元認知等方面實現(xiàn)突破性進展。在此之前,LLMs 將繼續(xù)作為強大的結(jié)構(gòu)化問題解決工具存在,但離真正模擬人類思維方式還有相當距離。
譯者介紹
劉汪洋,51CTO社區(qū)編輯,昵稱:明明如月,一個擁有 5 年開發(fā)經(jīng)驗的某大廠高級 Java 工程師。
原文標題:LLMs Are Not Reasoning—They’re Just Really Good at Planning,作者:Dr. Tehseen Zia