自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

DeepSeek R1遇難題142次"I give up",研究還稱需增加推理時機控制機制

人工智能
Cursor剛剛參與了一項研究,他們基于NPR周日謎題挑戰(zhàn)(The Sunday Puzzle),構(gòu)建了一個包含近600個問題新基準測試。這些謎題特點是很好理解,不需要專業(yè)知識就能看懂,然鵝解決起來卻沒那么容易。

最新大語言模型推理測試引眾議,DeepSeek R1常常在提供錯誤答案前就“我放棄”了??

Cursor剛剛參與了一項研究,他們基于NPR周日謎題挑戰(zhàn)(The Sunday Puzzle),構(gòu)建了一個包含近600個問題新基準測試。

這些謎題特點是很好理解,不需要專業(yè)知識就能看懂,然鵝解決起來卻沒那么容易。

舉個栗子:

想一個熟悉的五個字母、兩個音節(jié)的單詞。將中間字母改為字母表中該字母前面的字母,你將得到一個熟悉的五個字母、三個音節(jié)的單詞。這個單詞是什么?

圖片

標準答案是alpha → aloha,很容易驗證。

但這樣的題,即便是在美國長大講英語的成年人,五天也很難解出來。

圖片

研究人員用此最新基準,對OpenAI o1、OpenAI o3-mini、DeepSeek R1和Google Gemini Flash Thinking等模型進行測試,結(jié)果發(fā)現(xiàn)這些最新一代的推理模型解決這樣的謎題也很具挑戰(zhàn)性。

他們還表示,研究揭示了一些新的模型“故障”模式,這在現(xiàn)有的基準測試中并不明顯。

比如DeepSeek R1會在推理過程中直接放棄,然后給一個它明知是錯誤的答案,有時還會陷入“無限思考”狀態(tài)。

具體來看看是怎么回事。

周日謎題挑戰(zhàn)數(shù)據(jù)集

NPR Sunday Puzzle Challenge,是美國一檔廣播智力游戲節(jié)目,自1987年以來一直在播,每周日聽眾都會收到一個簡短謎題。

這些謎題通常涉及字母游戲,只需要普通的英語知識和美國文化常識就能理解。

不過每個謎題通常只有一個或極少數(shù)正確答案,題目難度各異,即便聽眾有整整五天的時間思考,有時最后也只有少數(shù)聽眾能想出正確答案。而當答案揭曉時,聽眾們都會恍然大悟覺得這個答案既正確又優(yōu)雅。

圖片

最近,來自韋爾斯利學院、得克薩斯大學奧斯汀分校、查理大學、Cursor、歐柏林學院、美國東北大學的研究團隊,從網(wǎng)上抓取了13年的周日謎題挑戰(zhàn)記錄構(gòu)建了一個數(shù)據(jù)集。

他們認為,目前一些最新基準測試用非常難的任務(wù)評估模型,比如大學級數(shù)學競賽問題、編程問題以及需要在學術(shù)領(lǐng)域深入的領(lǐng)域?qū)I(yè)知識問題,這種設(shè)計不僅對人類來說難以解決,而且也非常難以理解和驗證。

也就是說,大多數(shù)人或無法檢查答案是否確實正確,或無法驗證模型在推理上是否正確且有效。

于是,他們從這個節(jié)目的“off-air challenges”中整理出了近600個問題作為測試數(shù)據(jù)集。

這些題目很好理解且便于驗證。

在整理過程中,他們補充了必要的上下文信息(時間、地點等),比如在一個關(guān)于電影名稱的謎題中,特意標注了具體年份,避免歧義。

電影Wild Wild West的首字母縮寫是三個W。請問去年2013年哪部著名電影的首字母縮寫有兩個W?
標準答案:The Wolf Of Wall Street

圖片

為確保每個問題的答案清晰明確,大多數(shù)挑戰(zhàn)都有一個或少數(shù)幾個獨特答案,像下面這樣嬸兒有許多答案的問題都被pass掉了:

圖片

然后團隊用該基準評估了一眾頂流推理模型,包括OpenAI o1、o1-mini、o3-mini,DeepSeekR1、谷歌Gemini 2.0 Flash Thinking Experimental01-21,作為對照,還測試了不具備推理功能的GPT-4o和Claude Sonnet 3.5。

測試采用zero-shot prompting,直接向模型提供問題,不給任何額外的格式說明或指導。

不過有些謎題題目本身自帶示例說明:

SWITZERLAND(瑞士)的字母可以重新排列成LIZARD(蜥蜴)和NEWTS(蠑螈)兩個單詞,LIZARD是一個動物的單數(shù)形式,而NEWTS是復數(shù)形式。請再說出另一個具有相同特性的國家。即另一個其字母可以重新排列來拼寫兩種動物——一個單數(shù)和一個復數(shù)的國家。它是一個主要國家。這個國家是哪一個?

標準答案:Mexico(墨西哥) → ox(牛),mice(老鼠)

圖片

團隊給出的最終測試結(jié)果卻出人意料。

根據(jù)下圖該基準的平均準確率,OpenAI o1表現(xiàn)最優(yōu),準確率為59%;然后是o3-mini,準確率為47%,DeepSeek R1準確率為35%。

不具備推理功能的GPT-4o和Claude Sonnet 3.5明顯不如推理模型。

圖片

出人意料的點在于,在博士級科學問題GPQA基準上,DeepSeek R1、OpenAI o1和o3-mini的表現(xiàn)差距不大,然而在該基準上o1在通用知識方面卻顯示出明顯的優(yōu)勢。

團隊還觀察到一些新的模型“故障”模式——推理半道“I give up”

這種放棄表現(xiàn)出兩種形式,一種是給出一個在推理過程中完全沒有出現(xiàn)過的“憑空”答案

圖片
圖片

另一種是明知違反問題約束但仍然給出答案,常發(fā)生在下面這種問題中:

想一個包含三個音節(jié)的八個字母的單詞,每個音節(jié)中都包含字母“I”,但奇怪的是,沒有一個“I”發(fā)音,無論是長音還是短音。答案不是復數(shù)形式。這個單詞是什么?

標準答案:Daiquiri

圖片

以DeepSeek R1為例,它給出了“queueing”這個答案,并直接表示這個答案“有點牽強”,還解釋有些人可能會把“queueing”發(fā)音為“kyoo-ee-ing”。

圖片

團隊表示,在595個測試問題中,DeepSeek R1在142個問題上明確“放棄”。

此外,他們還發(fā)現(xiàn)R1等會陷入“無限思考”的狀態(tài),在達到32768token上下文輸出限制前無法完成推理,并沒有</think>。

特別在以下兩個挑戰(zhàn)中R1表現(xiàn)不佳,在10次試驗中有5次未能完成推理。

圖片

即使將限制提高到128K,這個問題仍然存在,由此,團隊認為R1需要某種推理時機控制機制,鼓勵模型在接近輸出token限制時結(jié)束推理。

研究人員還發(fā)現(xiàn),這些推理模型有時會表現(xiàn)出異常的不確定性,可能會提出一個答案,馬上又收回,然后嘗試給出新答案。

在某些情況下,模型很早就找到了正確答案,但仍會繼續(xù)探索其它可能性。

圖片
圖片

最后團隊分析了推理長度與準確率的關(guān)系,發(fā)現(xiàn)在輸出約10000個token后,繼續(xù)推理對提升準確率的幫助不大。

對于R1來說,在輸出約3000 token時就開始超過Gemini Thinking的表現(xiàn)。

圖片

新基準引發(fā)網(wǎng)友熱議

這項研究發(fā)布后,在Hacker News上引起網(wǎng)友熱烈討論。

其中最具爭議的一個點在于,有網(wǎng)友認為這項研究并非傳統(tǒng)意義上的“推理”挑戰(zhàn)

解決這些問題所需的核心技能似乎是知曉“流行品牌名”或“知名演員”等類別的所有已知名稱,檢查它們是否符合。

作為人類,你可能會因為不知道某個特別名稱而永遠無法回答某個問題,例如不是美國人,我不知道“Citgo”是什么,我這輩子從未見過這個名。

網(wǎng)友表示這的確是一個AI系統(tǒng)原則上可能真正擅長的事情,但當測試內(nèi)容過于側(cè)重“記憶回憶”時,把它稱為“推理”似乎很奇怪。

如果問題是多項選擇的,消除了讓候選答案浮現(xiàn)在腦海中的挑戰(zhàn),那么我會同意這是一個“推理”測試。

圖片

持此觀點的網(wǎng)友不在少數(shù)。

我有同樣的想法。這讓我想起解決Project Euler問題,通常存在一種明顯的簡單方法可以保證得出正確答案,但如果執(zhí)行到完成,將消耗過多的內(nèi)存/計算資源。如果提示模型制定一種有效解決這些挑戰(zhàn)的策略,而不是直接解決它們,模型的表現(xiàn)可能會好得多……這表明了一個潛在的改進方向。

圖片

另外,針對模型表現(xiàn)不一,也有網(wǎng)友提出能否確定這些謎題和答案沒被加到模型的訓練數(shù)據(jù)中的疑問。

圖片

聚焦到研究結(jié)果上,網(wǎng)友對研究中的發(fā)現(xiàn)很感興趣:

有趣的是,模型在推理中經(jīng)常包含正確答案,但卻沒能意識到這一點。

圖片

數(shù)草莓問題中“r”這一問題也再被網(wǎng)友搬出,有網(wǎng)友認為模型表現(xiàn)不佳的關(guān)鍵還是在分詞器上。

圖片

對于這項研究你怎么看?

論文鏈接:https://arxiv.org/abs/2502.01584
測試結(jié)果和數(shù)據(jù)集:https://huggingface.co/spaces/nuprl/verbal-reasoning-challenge
參考鏈接:https://news.ycombinator.com/item?id=42992336

責任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-02-07 13:10:06

2025-01-27 12:30:07

2025-02-20 15:32:28

2025-03-06 10:14:39

2025-03-06 09:55:49

2025-04-21 08:42:00

模型開源AI

2025-03-05 09:10:00

AI生成模型

2025-02-10 06:50:00

AIDeepSeek推理模型

2025-02-25 08:20:50

AI程序員DeepSeek

2025-02-12 12:12:59

2025-02-08 11:31:17

DeepseekR1模型

2025-04-22 15:32:06

AI模型LLM

2025-04-03 15:57:48

2025-02-11 08:35:30

2025-03-03 08:17:00

DeepSeek模型數(shù)據(jù)

2025-02-17 09:33:00

AI算法模型

2025-03-03 09:00:00

DeepSeekAI人工智能

2025-01-23 14:53:15

2025-02-08 14:03:25

2025-02-25 09:13:16

點贊
收藏

51CTO技術(shù)棧公眾號