自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

最強(qiáng)數(shù)學(xué)大模型易主!阿里千問(wèn)新模型成績(jī)超GPT-4o,網(wǎng)友:這才是真“草莓”

人工智能 新聞
最強(qiáng)的72B版本,在MATH數(shù)據(jù)集上比GPT-4o多得了7分,按比例算高出了9.6%。

最強(qiáng)數(shù)學(xué)大模型,現(xiàn)在易主!

阿里千問(wèn)大模型團(tuán)隊(duì)發(fā)布的Qwen2-Math,不僅超越了Llama 3.1-405B,也戰(zhàn)勝了GPT-4o、Claude 3.5等一系列閉源模型。

而且還會(huì)解決競(jìng)賽級(jí)試題,在GPT-4只能做對(duì)一道的AIME 24中,Qwen2-Math答對(duì)的題目數(shù)量達(dá)到了兩位數(shù)。

圖片

Qwen2-Math一共有三個(gè)參數(shù)量的版本——72B,7B和1.5B。

最強(qiáng)的72B版本,在MATH數(shù)據(jù)集上比GPT-4o多得了7分,按比例算高出了9.6%。

7B版本也用不到十分之一的參數(shù)量,超過(guò)了72B的開(kāi)源數(shù)學(xué)模型NuminaMath。

而且這個(gè)NuminaMath來(lái)頭不小,它的7B版本在全球首屆AIMO中獲獎(jiǎng),獎(jiǎng)項(xiàng)由數(shù)學(xué)大牛陶哲軒頒發(fā)

阿里高級(jí)算法專家林俊旸激動(dòng)地宣布,千問(wèn)團(tuán)隊(duì)把Qwen2模型變成了一個(gè)數(shù)學(xué)高手。

圖片

fast.ai創(chuàng)始人Jeremy Howard看了直呼amazing。

圖片

網(wǎng)友更是驚嘆,原來(lái)這才是真正的“草莓”,這是開(kāi)源的勝利,也是所有人的勝利。

圖片

超越GPT4o,會(huì)做競(jìng)賽級(jí)試題

如前文所說(shuō),Qwen2-Math共有72B、7B和1.5B三個(gè)參數(shù)規(guī)模,分別由對(duì)應(yīng)規(guī)模的Qwen2基礎(chǔ)模型改造而成。

在基礎(chǔ)模型之上,團(tuán)隊(duì)使用精心設(shè)計(jì)的數(shù)學(xué)專用語(yǔ)料庫(kù)進(jìn)行了預(yù)訓(xùn)練,訓(xùn)練數(shù)據(jù)包含大規(guī)模高質(zhì)量的數(shù)學(xué)網(wǎng)絡(luò)文本、書(shū)籍、代碼、考試題目,以及由Qwen2模型合成的數(shù)學(xué)預(yù)訓(xùn)練數(shù)據(jù)。

結(jié)果,在GSM8K、MATH等經(jīng)典數(shù)學(xué)測(cè)試集上,Qwen2-Math-72B的數(shù)學(xué)能力都超過(guò)了405B的Llama-3.1。

這些數(shù)據(jù)集,涉及到問(wèn)題涵蓋了代數(shù)、幾何、計(jì)數(shù)與概率、數(shù)論等多種類(lèi)型。

除了這些英文的數(shù)據(jù)集,Qwen2-Math還專門(mén)挑戰(zhàn)了中文數(shù)據(jù)集CMATH,還有高考試題。

在中文數(shù)據(jù)集上,1.5B版本的成績(jī)就超過(guò)了70B的Llama 3.1,而且三個(gè)版本相當(dāng)于同規(guī)模的Qwen2基礎(chǔ)模型,成績(jī)都有明顯提升。

圖片

在Qwen2-Math的基礎(chǔ)之上,千問(wèn)團(tuán)隊(duì)還微調(diào)出了Instruct版本。

具體來(lái)說(shuō),團(tuán)隊(duì)基于Qwen2-Math-72B訓(xùn)練一個(gè)數(shù)學(xué)專用的獎(jiǎng)勵(lì)模型,將獎(jiǎng)勵(lì)信號(hào)與正誤判斷信號(hào)結(jié)合作為學(xué)習(xí)標(biāo)簽,再通過(guò)拒絕采樣構(gòu)建監(jiān)督微調(diào)(SFT)數(shù)據(jù),最后在SFT模型基礎(chǔ)上使用GRPO方法優(yōu)化。

在MATH數(shù)據(jù)集上的零樣本測(cè)試顯示,1.5B的Instruct就能取得70%的準(zhǔn)確率,比70B的Llama 3.1還高。

圖片

此外,研究團(tuán)隊(duì)還引入了難度更大的OlympiadBench、CollegeMath和英譯版高考試題等更困難的測(cè)試集。

作者讓Qwen2-Math采用了貪心(greedy)、RM@8和Maj@8三種策略,結(jié)果無(wú)論是哪一種,Qwen2-Math的成績(jī)?nèi)汲^(guò)了同規(guī)模的Llama 3.1。

中文數(shù)據(jù)集方面,Qwen2-Math還挑戰(zhàn)了今年最新的中高考試題,與Llama 3.1相比優(yōu)勢(shì)十分明顯。

圖片

值得一提的是,為了減少測(cè)試成績(jī)當(dāng)中的“水分”,千問(wèn)團(tuán)隊(duì)專門(mén)從訓(xùn)練數(shù)據(jù)集中去除了所有和測(cè)試集重疊的部分

而且除了精確匹配,還運(yùn)用了更嚴(yán)格的13-gram去重策略,只要最長(zhǎng)公共序列的比率應(yīng)大于0.6就會(huì)被去除。

后訓(xùn)練的過(guò)程也是如此,涉及的數(shù)據(jù)集,甚至測(cè)試成績(jī)中沒(méi)展示的Aqua、SAT Math,全都被從數(shù)據(jù)當(dāng)中剔除。

另外,Qwen2-Math-Instruct已經(jīng)具備了解決一些簡(jiǎn)單的競(jìng)賽級(jí)試題的能力。

比如在AIME 24的30道題當(dāng)中,Qwen2-Math-72B-Instruct用rm@256策略能夠做對(duì)11道。

像GPT-4 Turbo、Claude 3 Opus和Gemini 1.5 PRo這些先進(jìn)模型都只能做對(duì)一兩道。

而且最小的1.5B版本也能在rm@256的條件下做對(duì)五道題,已經(jīng)超過(guò)了這三家模型。

另外,Gemini 1.5 Pro有一個(gè)專門(mén)針對(duì)數(shù)學(xué)任務(wù)的版本,但也只能做對(duì)七八道題目,Qwen2-Math-72B-Instruct是第一個(gè)做對(duì)的題目數(shù)量達(dá)到兩位數(shù)的模型。

圖片

在官方文檔中,千問(wèn)團(tuán)隊(duì)也展示了一些示例,比如奧賽級(jí)數(shù)學(xué)測(cè)試集Math Odyssey當(dāng)中有這樣一道題目。

這道題目涉及到組合數(shù)學(xué)和圖論,具體又包括了完全圖、二部圖等概念。

此外還需要理解如何將這些概念應(yīng)用于特定性質(zhì)結(jié)構(gòu)的構(gòu)建,需要較強(qiáng)的抽象思維能力和對(duì)圖論結(jié)構(gòu)的深刻理解。

圖片

Qwen2-Math的解決方案是這樣的,從中可以看出確實(shí)是運(yùn)用到了圖論方法。

最終,Qwen2-Math正確地回答了這道題目。

圖片

△中文為機(jī)翻,僅供參考

不過(guò),目前發(fā)布的Qwen2-Math主要針對(duì)英文場(chǎng)景,中英雙語(yǔ)版本將會(huì)在之后推出。

另外,根據(jù)Qwen2-Math的許可協(xié)議,該模型對(duì)大部分用戶來(lái)說(shuō)可以免費(fèi)商用,但對(duì)于72B版本,如果每月活躍用戶數(shù)超過(guò)1億,就需要向千問(wèn)團(tuán)隊(duì)申請(qǐng)?jiān)S可了。

圖片

項(xiàng)目主頁(yè):https://qwenlm.github.io/zh/blog/qwen2-math/

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-08-14 12:54:46

2024-09-06 13:00:29

2024-12-13 14:03:44

模型訓(xùn)練AI

2024-06-11 07:03:00

大模型開(kāi)源Qwen2

2024-11-12 14:00:00

AI編程

2024-05-14 11:29:15

2024-06-05 13:09:26

2023-12-04 09:55:58

AI大模型

2024-08-30 14:35:00

2023-04-07 14:01:18

ChatGPT人工智能

2024-09-06 13:31:31

2024-10-16 15:07:57

2024-12-26 07:10:00

2024-05-09 08:33:33

2024-12-19 09:00:00

模型數(shù)學(xué)訓(xùn)練

2024-05-15 17:34:15

2024-07-19 14:08:02

2023-10-31 15:26:02

阿里云通義千問(wèn)

2025-02-17 09:35:00

ChatGPT模型AI
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)