自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

NP難問題接近被AI破解!南航牛津爆改DeepSeek-R1推理,碾壓人類27年研究

人工智能 新聞
給DeepSeek-R1推理指導(dǎo),它的數(shù)學(xué)推理能力就開始暴漲。更令人吃驚是,Qwen2.5-14B居然給出了此前從未見過的希爾伯特問題的反例!而人類為此耗費(fèi)了27年。研究者預(yù)言:LLM離破解NP-hard問題,已經(jīng)又近了一步。

就在剛剛,南航、南通大學(xué)、牛津等機(jī)構(gòu)的研究者發(fā)現(xiàn):通過高指令的推理指令,DeepSeek-R1有望解決數(shù)學(xué)上的NP-hard問題!

論文地址:https://arxiv.org/abs/2502.20545

NP-hard問題,是計(jì)算復(fù)雜性理論中的一類問題。它們至少和NP問題一樣難,但不一定屬于NP類別(即不一定中多項(xiàng)式時(shí)間內(nèi)被驗(yàn)證)。

本來,DeepSeek-R1、GPT-4o、OpenAI o1-mini這些模型,是做某種數(shù)學(xué)推理難題(SoS)是很困難的,正確率也就比純猜高一點(diǎn)。

但是,一旦給它們一些推理指導(dǎo),所有的模型的推理能力立馬噌噌上漲,專業(yè)率最高提升了21%。

更令研究者們吃驚的是,Qwen2.5-14B-Instruct-1M在指導(dǎo)下,居然用了一個(gè)新奇精巧的方法,給出了一個(gè)此前從未見過的希爾伯特問題的反例:

要知道,希爾伯特問題的反例,可并非簡單推導(dǎo)就能得出來的。

自1893年問題被提出之后,首個(gè)反例的發(fā)現(xiàn)耗時(shí)長達(dá)27年!

如今,卻被LLM短時(shí)間內(nèi)破解了。

研究者們大膽預(yù)言:照這個(gè)速度演進(jìn),LLM離破解NP-hard問題已經(jīng)很近了。

LLM能解決希爾伯特第十七問題嗎?

如今,LLM在眾多任務(wù)上,表現(xiàn)已經(jīng)接近人類水平,但它們?cè)趪?yán)謹(jǐn)數(shù)學(xué)問題求解上的能力,仍是不小的挑戰(zhàn)。

這次,研究者決定給大模型們來一個(gè)硬核難題——判斷給定的多元多項(xiàng)式是否為非負(fù)的。

這個(gè)問題,和希爾伯特第十七問題密切相關(guān)。后者由數(shù)學(xué)家希爾伯特在1900年提出后,立馬成為23個(gè)經(jīng)典數(shù)學(xué)問題之一。

而且,許多應(yīng)用數(shù)學(xué)和計(jì)算數(shù)學(xué)中的關(guān)鍵挑戰(zhàn),都可以轉(zhuǎn)化為判斷某些多項(xiàng)式的非負(fù)性問題,比如控制理論、量子計(jì)算、多項(xiàng)式博弈、張量方法、組合優(yōu)化等。

然而,判斷一般多項(xiàng)式是否非負(fù),是一個(gè)公認(rèn)的NP-hard問題!

即使對(duì)于相對(duì)低階或僅含少量變量的多項(xiàng)式,此問題仍然極具挑戰(zhàn)性。

怎么辦?為此,研究者們只能去尋找多項(xiàng)式的特殊類別,將復(fù)雜的非負(fù)性約束,替換成更簡單一些的條件。

由此,平方和(SoS)條件就登場了。

作為一項(xiàng)數(shù)學(xué)技術(shù),它通過將多項(xiàng)式表示為若干平方項(xiàng)的和,提供了一種充分但非必要的非負(fù)性判定方法。

所以,OpenAI o1和DeepSeek-R1,能解決SoS條件規(guī)劃問題嗎?

用一個(gè)數(shù)據(jù)集,給LLM專業(yè)推理指導(dǎo)

為此,研究者構(gòu)建了SoS-1K數(shù)據(jù)集。

這個(gè)數(shù)據(jù)集經(jīng)過了精心策劃,包含約1,000個(gè)多項(xiàng)式,并配備了五個(gè)精心設(shè)計(jì)的專家級(jí)SoS專業(yè)推理指導(dǎo)。

具體包括:

  • 多項(xiàng)式階數(shù)
  • 主導(dǎo)搜索方向的非負(fù)性
  • 特殊結(jié)構(gòu)的識(shí)別
  • 平方形式表達(dá)的評(píng)估
  • 單項(xiàng)式的二次形式矩陣分解

接下來,屬于SOTA模型們的考驗(yàn)來了!

DeepSeek-R1、DeepSeek-V3、GPT-4o、OpenAI o1-mini、Qwen2.5 系列和 QwQ-32B-Preview在內(nèi)的多位明星大模型,接受了數(shù)學(xué)難題的洗禮。

研究者們得出了一系列有趣的發(fā)現(xiàn)。

首先,如果未提供任何推理指導(dǎo),所有的SOTA模型幾乎都無法解決SoS問題。

它們的準(zhǔn)確率基本都在60%,僅僅略高于50%的隨機(jī)猜測基線。

不過,一旦使用高質(zhì)量的推理軌跡進(jìn)行提示,所有模型的準(zhǔn)確率就立馬有了顯著提升!

最高的提升了21%,而且推理質(zhì)量越高,模型表現(xiàn)就越好。

另外還有兩點(diǎn)發(fā)現(xiàn):專注于推理的LLM通常優(yōu)于通用LLM,無論提示質(zhì)量如何。

參數(shù)較大的模型通常只用更少的推理步驟,就能正確預(yù)測,而小模型要達(dá)到最佳性能,就需要更多的推理過程了。

14B模型竟發(fā)現(xiàn)了此前未見的希爾伯特問題反例

然后,研究者還進(jìn)一步證明,對(duì)一個(gè)預(yù)訓(xùn)練的7B模型在SoS1K數(shù)據(jù)集上進(jìn)行4小時(shí)的監(jiān)督微調(diào)后,僅使用2張A100 GPU,就能讓它準(zhǔn)確率從54%暴增至70%,響應(yīng)速度也大幅提高。

其中,SoS-7B僅需DeepSeek-V3和GPT-4o-mini計(jì)算時(shí)間的1.8%和5%。

也就是說,這個(gè)7B模型超越了671B的DeepSeek-V3和GPT-4o-mini在內(nèi)的更大規(guī)模模型。

然后,驚人的結(jié)果來了——

當(dāng)模型被輸入高質(zhì)量的推理提示時(shí),甚至在研究級(jí)問題上做出了革命性的突破。

比如,Qwen2.5-14B-Instruct-1M就利用Motzkin多項(xiàng)式,生成了全新的、此前未見的希爾伯特第十七問題的反例。

具體來說,模型是如何發(fā)現(xiàn)這個(gè)反例的?

研究者展示了以下過程:通過SoS Reasoning提示,Qwen-14B-1M推導(dǎo)出了一個(gè)新的有效NNSoS示例:

模型構(gòu)建這個(gè)例子的方法,非常新奇有趣,令研究者贊嘆不已。

它從NNSoS的著名例子開始,如:,然后,引入了一個(gè)新變量并稍微修改了系數(shù),進(jìn)而生成了q_a。

這也就給了我們極大信心:按照如今LLM展現(xiàn)出的推理能力,或許有朝一日,它們真能破解NP-hard問題。

值得一提的是,團(tuán)隊(duì)只用2張英偉達(dá)A100 GPU,耗時(shí)4小時(shí)就完成了對(duì)Qwen2.5-7B-Instruct-1M的微調(diào)。

由此得到的SoS-7B模型達(dá)到了70%的總體準(zhǔn)確率,超過了671B參數(shù)量的DeepSeek-V3(69%),同時(shí)響應(yīng)時(shí)間僅需1.8秒,而DeepSeek-V3則需要100秒。

SoS-1K Dataset

首先,研究者對(duì)SoS多項(xiàng)式做出了定義。

隨后,研究者們?yōu)長LM精心設(shè)計(jì)了指令,從而提供了結(jié)構(gòu)化的分析框架,明確了約束條件,優(yōu)化了邏輯推理流程,讓它們顯著提高了解題能力。

為此,他們構(gòu)建了三種不同層次的的推理指令集。

1. 基礎(chǔ)SoS指令(SoS Plain)

直接向LLM提問:「請(qǐng)分析該多項(xiàng)式是否可以表示為平方和(SoS)」?

2. 簡化SoS指令(SoS Simple)

將SoS多項(xiàng)式劃分為五個(gè)不同類別,每個(gè)類別由簡潔的一行標(biāo)準(zhǔn)定義。

3. 基于推理的完整SoS指令(SoS Reasoning)

這是一個(gè)結(jié)構(gòu)化的五步框架,用來系統(tǒng)化識(shí)別SoS多項(xiàng)式。

而就是這個(gè)SoS Reasoning,成為了LLM解決數(shù)學(xué)研究級(jí)問題的基礎(chǔ),讓它們的能力擴(kuò)展到更復(fù)雜的數(shù)學(xué)推理任務(wù)。

下面就是一個(gè)SoS Reasoning的示例。

  • 步驟1. 檢查次數(shù):SoS多項(xiàng)式的最高次數(shù)必須是偶數(shù)。
  • 步驟2. 檢查非負(fù)性:SoS多項(xiàng)式對(duì)所有實(shí)數(shù)輸入都應(yīng)為非負(fù)值。
  • 步驟3. 檢查已知特例:任何非負(fù)二次多項(xiàng)式以及任意一元或二元的非負(fù)四次多項(xiàng)式均為SoS。
  • 步驟4. 檢查平方形式:根據(jù)定義2.1,SoS多項(xiàng)式可表示為:p_s(x) = ∑_i{q_i(x)2}。其中,每個(gè)q_i(x)均為多項(xiàng)式。
  • 步驟5. 檢查矩陣分解:根據(jù)定理B.1,可以將多項(xiàng)式表示為:p(x) = y*?Qy*。其中,Q為對(duì)稱矩陣。隨后,檢查Q是否為半正定矩陣。

SoS任務(wù)上的LLM評(píng)估

在SoS-1K數(shù)據(jù)集中,研究者隨機(jī)抽取了約340道測試題,涵蓋了所有測試子類別。

參與評(píng)估的有專門的推理模型(如DeepSeek-R1、OpenAI o1-mini 和QwQ-32B-Preview),以及通用大模型(如DeepSeek-V3、GPT-4o 和Qwen2.5系列)。

結(jié)果如下。

模型對(duì)SoS和非負(fù)性的理解

有人可能會(huì)問:

  • 模型是只學(xué)會(huì)了分類,還是真正發(fā)展出了「思考」和「構(gòu)建」新證明和示例的能力?
  • 當(dāng)面對(duì)SoS或多項(xiàng)式優(yōu)化中的研究問題時(shí),模型能否生成具有數(shù)學(xué)意義的見解?

為了探索這一點(diǎn),團(tuán)隊(duì)設(shè)計(jì)了一系列研究導(dǎo)向的問題來測試模型理解SoS和非負(fù)性質(zhì)背后數(shù)學(xué)概念的能力。

比如,問Qwen-7B-1M和Qwen14B-1M:你能提供一個(gè)文獻(xiàn)中從未出現(xiàn)過的新NNSoS嗎?

有趣的是,當(dāng)使用SoS Plain提示時(shí),Qwen-14B-1M只能給出文獻(xiàn)中已知的例子,而Qwen-7B-1M返回了一個(gè)不正確的答案:

雖然回答錯(cuò)誤,但這個(gè)問題挑戰(zhàn)性極大,即便像YALMIP這樣的經(jīng)典求解器也無法提取全局最優(yōu)性。

然而,當(dāng)使用SoS Reasoning提示向模型提出相同的研究問題時(shí),模型正確地識(shí)別出了pa不是問題的有效解。

這一改進(jìn)源于SoS推理的第4步,其中模型認(rèn)識(shí)到p_a(x)是兩個(gè)變量的非負(fù)四次多項(xiàng)式,因此不可能是NNSoS。

進(jìn)一步分析

Q1:模型是否遵循真正的數(shù)學(xué)逐步驗(yàn)證過程?

結(jié)果顯示,LLM能夠按照SoS推理指令,一步一步生成邏輯和數(shù)學(xué)都正確的答案。

比如在下面這個(gè)例子中,o1-mini的回復(fù)不僅在邏輯上和數(shù)學(xué)上是正確的,而且一旦模型推導(dǎo)出答案就自然停止,而不是盲目地遍歷所有可能的步驟。

Q2:模型能否有效地從長文本多項(xiàng)式中提取關(guān)鍵信息?

與標(biāo)準(zhǔn)文本輸入不同,多項(xiàng)式是由變量、系數(shù)、指數(shù)和項(xiàng)組成的復(fù)雜代數(shù)表達(dá)式。因此,對(duì)于LLM來說,有效解釋和提取此類結(jié)構(gòu)化格式中的關(guān)鍵信息至關(guān)重要。

分析表明,雖然QwQ-32B-Preview在處理超過4K token長度的問題時(shí)會(huì)遇到困難,但大多數(shù)SOTA的模型都能夠成功地從4K長度的多項(xiàng)式中提取必要的系數(shù)進(jìn)行評(píng)估,并生成正確的答案。

Q3:在SoS推理的第1步到第5步中,哪一步的準(zhǔn)確率有所提高?

圖2展示了o1-mini模型在基礎(chǔ)SoS(SoS Plain)、簡化SoS(SoS Simple)和完整SoS推理(SoS Reasoning)下不同測試集的準(zhǔn)確率提升情況。

結(jié)果顯示,最簡單的Test Set 1(對(duì)應(yīng)步驟1)在所有提示方法下,都毫無意外地達(dá)到了100%的準(zhǔn)確率。

得益于步驟2和步驟5,對(duì)于更具挑戰(zhàn)性的Test Sets 2a、3.1a、5.1a–5.4a,從基礎(chǔ)SoS到簡化SoS再到完整SoS推理,也都有持續(xù)的改進(jìn)。

因?yàn)椋@些步驟引入了一系列用于非負(fù)性驗(yàn)證的數(shù)學(xué)方法,包括常數(shù)系數(shù)檢查、網(wǎng)格求值、首項(xiàng)和主導(dǎo)項(xiàng)比較、尋找最小值、矩陣分解以及尋找對(duì)稱性和平移。

Q4:模型在推理過程中會(huì)「偷懶」嗎?

是的,在SoS推理提示下觀察到的另一個(gè)有趣現(xiàn)象是,模型在執(zhí)行第5步時(shí)往往會(huì)「走捷徑」。

具體而言,它通常會(huì)避免完全執(zhí)行第5步中的矩陣分解或半正定規(guī)劃(SDP)等復(fù)雜操作,而是基于前面步驟的結(jié)果推測答案。這種行為在處理長輸入和復(fù)雜多項(xiàng)式時(shí)尤為普遍。

對(duì)于較簡單的問題,推理模型如o1-mini(運(yùn)行時(shí)間最短,為17秒)和較大的模型如QwQ-32B-Preview往往會(huì)采取捷徑,跳過第5步,從前面更簡單的步驟中推斷答案。

而DeepSeek-V3則不會(huì)走捷徑,而是花費(fèi)明顯更多的時(shí)間(40秒)正確地解決所有步驟。

Q5:推理長度如何影響準(zhǔn)確性?

如圖3所示,更高性能的模型通常需要更少的思考所需token數(shù)量來做出正確預(yù)測,而性能較低的模型需要更多的推理步驟才行。

例如,DeepSeek-R1和o1-mini在1K-2K的輸出長度下,就達(dá)到最高的正確預(yù)測數(shù)量;而Qwen2.5系列需要3K-4K個(gè)token才能產(chǎn)生正確答案。

Q6:當(dāng)前的SOTA模型有什么局限性?

首先,對(duì)于長輸入情況,會(huì)出現(xiàn)無效樣本。例如,在DeepSeek-R1中,340個(gè)樣本中只有234個(gè)是有效的。

其次,在處理復(fù)雜問題時(shí),「走捷徑」雖然會(huì)節(jié)省時(shí)間,但在困難步驟時(shí)過早停止并猜測答案,會(huì)對(duì)準(zhǔn)確性產(chǎn)生負(fù)面影響。

第三,雖然這些模型在處理小型多項(xiàng)式時(shí)表現(xiàn)出色(準(zhǔn)確率接近90%),但在多項(xiàng)式的二次型涉及低秩矩陣分解時(shí),表現(xiàn)不佳。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-02-19 08:00:00

2025-04-21 08:42:00

模型開源AI

2025-03-05 03:00:00

DeepSeek大模型調(diào)優(yōu)

2025-02-13 08:51:23

DeepSeek大模型

2025-02-08 09:44:11

DeepSeekAI模型

2025-01-21 09:36:51

2025-03-27 09:34:42

2025-03-19 10:10:43

2025-01-21 11:53:53

2025-02-03 15:50:44

2025-02-06 10:18:45

2025-04-27 08:54:00

英偉達(dá)開源模型

2025-03-06 17:29:21

2025-02-18 08:15:03

2025-02-19 08:33:18

2025-02-08 10:42:34

2025-04-22 15:32:06

AI模型LLM
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)