自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI大佬曼寧轉(zhuǎn)贊,MetaGPT團(tuán)隊首提「Atom of Thoughts」,原子化思考讓4o-mini暴打推理模型?

人工智能 新聞
大語言模型(LLM)近年來憑借訓(xùn)練時擴(kuò)展(train-time scaling)取得了顯著性能提升。

AoT 作者團(tuán)隊來自 MetaGPT 開源社區(qū)。第一作者為香港科技大學(xué)(廣州)的滕楓蔚,通訊作者為 DeepWisdom 創(chuàng)始人兼 CEO 吳承霖。團(tuán)隊還包括 DeepWisdom 研究員于兆洋、中國人民大學(xué)的石泉、香港科技大學(xué)(廣州)的博士生張佳釔和助理教授駱昱宇。

圖片


  • 論文標(biāo)題:Atom of Thoughts for Markov LLM Test-Time Scaling
  • 論文地址:https://arxiv.org/abs/2502.12018
  • 項目地址:https://github.com/qixucen/atom

從 “長鏈推理” 到 “原子思維”:AoT 的誕生

大語言模型(LLM)近年來憑借訓(xùn)練時擴(kuò)展(train-time scaling)取得了顯著性能提升。然而,隨著模型規(guī)模和數(shù)據(jù)量的瓶頸顯現(xiàn),測試時擴(kuò)展(test-time scaling)成為進(jìn)一步釋放潛力的新方向。然而,無論是思維鏈(CoT)、思維樹(ToT)等提示策略和推理框架,還是 OpenAI o1/o3 和 DeepSeek-R1 等推理模型,在推理時都過度依賴完整歷史信息,導(dǎo)致計算資源浪費(fèi),同時冗余信息干擾有效推理。

具體來說,基于鏈的方法每進(jìn)行一步推理,都需回顧已有的完整鏈條;基于樹的方法則需要追蹤祖先和同層節(jié)點;基于圖的方法允許節(jié)點任意連接,進(jìn)一步加重了歷史信息依賴,導(dǎo)致計算復(fù)雜度上升。隨著推理規(guī)模擴(kuò)大,特別是以 OpenAI 的 o1/o3 和 DeepSeek-R1 為代表的推理模型,飆升的計算資源需求用于處理不斷積累的歷史信息。相比之下,人類推理傾向于將復(fù)雜問題拆分為獨(dú)立的子問題,逐步解決并整合后續(xù)推理所需的信息,而不執(zhí)著于保留每步細(xì)節(jié)。這種 “原子化思考” 啟發(fā)了 AoT 的設(shè)計,使其專注當(dāng)前狀態(tài)的推理,摒棄歷史依賴。

基于此觀察,研究人員推出了 Atom of Thoughts(AoT),AoT 的核心洞察是:復(fù)雜推理可通過一系列輕量的 “原子問題” 實現(xiàn),這些問題的執(zhí)行僅依賴自身,擺脫歷史信息依賴。AoT 將推理過程構(gòu)建為馬爾可夫過程(Markov process),通過不斷進(jìn)行狀態(tài)轉(zhuǎn)移,逐步簡化問題并始終保持和原問題等價,最終求解輕量的原子問題來回答原問題。

圖片

AoT 論文 X 平臺獲得近 40 萬瀏覽量,并獲 NLP 巨匠、2024 馮諾伊曼獎得主 Christopher Manning 轉(zhuǎn)發(fā)。

AoT 如何推理?

由拆解收縮雙階段組成的馬爾可夫轉(zhuǎn)移過程

圖片

在馬爾可夫過程中,狀態(tài)從原問題 Q0 初始化,問題所需的推理時間可通過拆解生成的 DAG 結(jié)構(gòu)復(fù)雜度反映。隨著拆解和收縮迭代,當(dāng)前狀態(tài) Qi 的推理時間逐步降低。

AoT 的一次狀態(tài)轉(zhuǎn)移由兩個核心步驟組成:拆解(Decomposition)和收縮(Contraction)。這兩個步驟共同完成一次狀態(tài)轉(zhuǎn)換,生成一個簡化的問題作為下一輪拆解與收縮的 “原問題”。這一過程不斷迭代,直到達(dá)到最大次數(shù)限制 —— 該限制由首次拆解生成的圖的深度確定,以避免無限循環(huán)。

1. 拆解(Decomposition)

AoT 首先將當(dāng)前問題分解為一個臨時的、基于依賴關(guān)系的有向無環(huán)圖(DAG)。在這個 DAG 中,節(jié)點代表子問題,邊則表示它們之間的依賴關(guān)系。臨時 DAG 提供的結(jié)構(gòu)信息為后續(xù)收縮階段奠定了基礎(chǔ),幫助消除因復(fù)雜結(jié)構(gòu)帶來的歷史信息負(fù)擔(dān)。

2. 收縮(Contraction)

拆解完成后,DAG 以規(guī)則化的方式區(qū)分子問題:無入邊的節(jié)點被定義為獨(dú)立子問題,有入邊的節(jié)點被定義為依賴子問題。獨(dú)立子問題的信息轉(zhuǎn)化為已知條件,依賴子問題的描述則被整合為一個更簡潔的獨(dú)立問題,從而形成新的原子狀態(tài)。這一狀態(tài)的答案與前一狀態(tài)的問題保持等價。由于馬爾可夫過程從原問題初始化,所有狀態(tài)均與原問題維持等價關(guān)系。

AoT 馬爾可夫式的狀態(tài)轉(zhuǎn)移和原子化的狀態(tài)表示極大地消除了對歷史信息的依賴,將計算資源聚焦于當(dāng)前的原子問題,提高推理的穩(wěn)健性。

原子性帶來即插即用

兼容一切框架和模型

圖片

主實驗結(jié)果,其中評估了三個變體:基礎(chǔ)版本(AoT),作為插件與 FoT 集成的版本(AoT (d=1)+FoT (n=2)),以及一個計算密集型版本(AoT?)

AoT 不僅是一個獨(dú)立的推理框架,更是一個強(qiáng)大的插件。其每一次狀態(tài)轉(zhuǎn)移得到的原子狀態(tài)中的問題都可以無縫嵌入現(xiàn)有的推理手段,無論是提示策略、推理框架,代理工作流還是多智能體代理系統(tǒng),AoT 都能通過預(yù)處理簡化輸入問題,同時保持答案等價性,來優(yōu)化后續(xù)推理效率和效果。

圖片

在 MATH 數(shù)據(jù)集上的性能比較。綠色線條顯示 FoT 在不同樹數(shù)(2^k,k=0,1,2,…)下 scaling 的情況,而灰色趨勢線(代表其他基線方法)則共同展示了性能提升與計算成本之間的權(quán)衡。AoT(d=1)結(jié)合 FoT(n=2)在保持較低計算需求的同時,達(dá)到了稍優(yōu)于 FoT(n=8)的性能。

AoT 的原子性設(shè)計天然契合多跳推理場景的需求。QwQ-32B-Preview、DeepSeek-R1 和 o3-mini 等模型通過延長思維鏈展現(xiàn)出強(qiáng)大的推理能力。例如以 gpt-4o-mini 作為執(zhí)行模型的 AFlow 在多跳任務(wù)中仍與 o3-mini 的直接求解存在差距。然而,AoT 通過原子化分解,使得即便僅以 gpt-4o-mini 這種短思維鏈模型作為推理基座,也能在性能上超越這些強(qiáng)大的長思維鏈模型。更進(jìn)一步,當(dāng) o3-mini 被用作 AoT 的推理基座時,原子性設(shè)計的優(yōu)勢得以充分發(fā)揮,帶來更加顯著的性能提升。

圖片

多跳問答任務(wù)中推理模型性能比較

開源與社區(qū)

圖片

AoT 延續(xù)了 MetaGPT 社區(qū)的開源精神,代碼已公開于 GitHub。歡迎開發(fā)者與研究者嘗試 AoT,無論是獨(dú)立使用還是集成到現(xiàn)有方法,并持續(xù)關(guān)注后續(xù)研究和功能更新。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2025-04-23 08:30:05

2025-04-18 10:36:42

2024-12-24 16:15:04

2025-02-08 17:00:11

2024-09-24 11:01:03

2024-10-10 13:01:43

2025-04-17 06:10:57

2025-01-20 19:52:50

2025-01-15 13:01:07

2025-04-18 08:42:52

模型推理AI

2025-02-14 11:18:57

2025-04-17 09:02:00

2024-12-26 07:10:00

2025-01-02 12:48:36

2025-03-05 00:22:00

2025-02-08 11:44:03

2025-04-10 10:02:43

2025-03-17 08:15:00

AI技術(shù)模型

2025-02-25 09:13:16

2025-04-15 09:00:00

模型推理AI
點贊
收藏

51CTO技術(shù)棧公眾號