百倍提升7B模型推理能力!顏水成團隊攜手新加坡南洋理工大學發(fā)布Q*算法
自OpenAI的Q項目曝光后,業(yè)內相關討論始終層出不窮。 據(jù)現(xiàn)有信息匯總,Q項目被視作OpenAI在探索人工通用智能(Artificial General Intelligence, AGI)道路上的一次重大嘗試,有望在包括數(shù)學問題解決能力、自主學習和自我改進等多個層面對人工智能技術帶來革新性突破。
(英偉達科學家Jim Fan、圖靈獎得主Yann LeCun等參與討論OpenAI的Q*實現(xiàn)方式) 圖片
(Meta科學家田淵棟則認為Q是Q-learning和A的結合,且天然地適合推理任務,尤其在數(shù)
學推理方面)
不過迄今為止OpenAI沒有公開關于Q算法的具體細節(jié),其效果究竟如何我們并不得而知。 然而就在近日,一篇名為《Q: Improving Multi-step Reasoning for LLMs with Deliberative Planning》的論文在AI圈內引發(fā)了不小的震蕩。
論文鏈接:??https://arxiv.org/abs/2406.14283??
論文中提出的Q算法不僅能夠幫助小模型達到參數(shù)量比其大數(shù)十倍、甚至上百倍模型的推理能力,大幅提升了小模型的性能,還顯著降低了計算資源的需求。
最值得關注的是,這篇論文竟然出自中國團隊之手——由顏水成教授團隊攜手新加坡南洋理工大學團隊共同發(fā)布!
根據(jù)實驗結果,Q成功幫助現(xiàn)有開源模型在GSM8K、MATH和MBPP數(shù)據(jù)集上取得性能飛躍,評分分別超越了ChatGPT和Gemini Ultra。
(Q*在AI圈內引發(fā)熱議)
(外網(wǎng)網(wǎng)友直呼「中國AI趕上來了!」)
在《Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning》論文中,研究人員首先將大語言模型的推理軌跡分解為若干個狀態(tài)。
對于每一個狀態(tài),參考DeepCubeA中的設計,通過將定義Path Cost的g(s_t)函數(shù)和定義Accumulated Reward的Q*(s_t, a_t)集成到同一個f(s_t)函數(shù)內,實現(xiàn)了對歷史狀態(tài)收益和未來期望收益的綜合考慮。
最后利用A搜索算法對狀態(tài)進行最佳優(yōu)先搜索,實現(xiàn)了對復雜推理任務的全盤規(guī)劃,從而提升開源模型在推理任務上的性能。
其中g(s_t)表示當前軌跡中的多個歷史狀態(tài),既{s1,...,s_t},的聚合收益。
具體g(s_t)的函數(shù)形式可以通過人為定義,例如判斷當前代碼是否符合語法規(guī)則等,或者通過構建 Process Reward Model(PRM)進行監(jiān)督學習得到;g(s_t)中的聚合方式可以為求和,最大值,最小值等。
為了獲得狀態(tài)-動作對(s_t, a_t)的最優(yōu)Q值以實現(xiàn)規(guī)劃,研究人員在當前LLM策略生成的數(shù)據(jù)上通過監(jiān)督學習的方式訓練了一個代理Q值模型Q。
實驗結果表明,顏水成團隊本次所提出的Q框架,可以顯著地提升LLM的推理能力:
- 在GSM8K數(shù)據(jù)集上,Q幫助Llama-2-7b提升至80.8%的準確率,超越了ChatGPT;
- 在MATH數(shù)據(jù)集上,Q幫助DeepSeek-Math-7b提升至55.4%的準確率,超越了Gemini Ultra;
- 在MBPP數(shù)據(jù)集上,Q*幫助CodeQwen1.5-7b-Chat提升至77.0%的準確率,縮小了與GPT-4的編程水平差距。
研究證明,Q能夠幫助參數(shù)量僅為7b的小模型達到參數(shù)量比其大數(shù)十倍甚至百倍模型的推理能力,大幅提升模型的性能,并顯著降低了計算資源的需求。
顏水成團隊表示,目前,Q的研究尚在初級階段,算法在各個環(huán)節(jié)還有進一步的改進空間。未來,團隊會繼續(xù)深入此項研究,不斷提升國產(chǎn)開源模型推理能力,打破OpenAI閉源封鎖,為人工智能前沿技術發(fā)展帶來全新可能。
本文轉自 新智元,作者:新智元
