自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

微軟開(kāi)源的大模型太強(qiáng)了,數(shù)學(xué)推理超ChatGPT,論文、模型權(quán)重全部公開(kāi)

人工智能 新聞
有了這項(xiàng)研究,大模型的數(shù)學(xué)能力更強(qiáng)了,該研究提出了一種名為 Reinforced Evol-Instruct 方法。

上周,微軟與中國(guó)科學(xué)院聯(lián)合發(fā)布的 WizardMath 大模型火了。

該模型有 70B、13B、7B 三個(gè)參數(shù)規(guī)模,研究者在兩個(gè)數(shù)學(xué)推理基準(zhǔn) GSM8k 和 MATH 上的測(cè)試表明,WizardMath 優(yōu)于所有其他開(kāi)源 LLM,達(dá)到 SOTA。

在 GSM8K 上,WizardMath-70B-V1.0 模型的性能略?xún)?yōu)于一些閉源 LLM,包括 ChatGPT 3.5、Claude Instant 1 和 PaLM 2 540B。

WizardMath-70B-V1.0 模型在 GSM8k 基準(zhǔn)測(cè)試中達(dá)到 81.6 pass@1,比 SOTA 開(kāi)源 LLM 高出 24.8 分。

WizardMath-70B-V1.0 模型在 MATH 基準(zhǔn)測(cè)試中達(dá)到 22.7 pass@1,比 SOTA 開(kāi)源 LLM 高出 9.2 分。

圖片

其中,GSM8k 數(shù)據(jù)集包含大約 7500 個(gè)訓(xùn)練數(shù)據(jù)和 1319 個(gè)測(cè)試數(shù)據(jù),主要是小學(xué)水平的數(shù)學(xué)問(wèn)題,每個(gè)數(shù)據(jù)集都包含基本算術(shù)運(yùn)算(加、減、乘、除),一般需要 2 到 8 步來(lái)解決。MATH 數(shù)據(jù)集來(lái)自 AMC 10、AMC 12 和 AIME 等著名數(shù)學(xué)競(jìng)賽當(dāng)中的數(shù)學(xué)問(wèn)題,包含 7500 個(gè)訓(xùn)練數(shù)據(jù)和 5000 個(gè)具有挑戰(zhàn)性的測(cè)試數(shù)據(jù):初等代數(shù)、代數(shù)、數(shù)論、幾何、微積分等。

下圖顯示,WizardMath 在 GSM8k 基準(zhǔn)測(cè)試中獲得第五名,超過(guò)了 Claude Instant 1(81.6 vs. 80.9)、ChatGPT(81.6 vs. 80.8)和 PaLM 2 540B(81.6 vs. 80.7)。值得注意的是,與這些模型相比,WizardMath 模型的尺寸要小得多。

圖片

HuggingFace 已上線 3 個(gè)版本(分別為 7B、13B 和 70B 參數(shù))?,F(xiàn)在,相關(guān)論文已經(jīng)公布了。

圖片

  • 論文地址:https://github.com/nlpxucan/WizardLM
  • 項(xiàng)目地址:https://github.com/victorsungo/WizardLM/tree/main/WizardMath
  • 模型權(quán)重:https://huggingface.co/WizardLM/WizardMath-70B-V1.0

方法介紹

該研究提出了一種名為 Reinforced Evol-Instruct 方法,如圖 1 所示,其包含 3 個(gè)步驟:1、監(jiān)督微調(diào)。2、訓(xùn)練指令獎(jiǎng)勵(lì)模型以及過(guò)程監(jiān)督獎(jiǎng)勵(lì)模型。3、Active Evol-Instruct 和 PPO 訓(xùn)練。

圖片

監(jiān)督微調(diào):繼 InstructGPT 之后,該研究還使用了監(jiān)督指令 - 響應(yīng)對(duì)進(jìn)行微調(diào),其中包含:


  • 為了使每個(gè)步驟的解析都更加容易,該研究使用 Alpha 版本的 WizardLM 70B(微調(diào)的 LLaMA 模型)模型對(duì) GSM8k 和 MATH 重新生成了 15k 個(gè)答案,以 step-by-step 方式生成解決方案,然后找出正確答案,并使用這些數(shù)據(jù)對(duì)基礎(chǔ) Llama 模型進(jìn)行微調(diào)。
  • 該研究還從 WizardLM 的訓(xùn)練數(shù)據(jù)中采樣了 1.5k 個(gè)開(kāi)放域?qū)υ?,然后將其與上述數(shù)學(xué)語(yǔ)料庫(kù)合并作為最終的 SFT ( supervised fine-tuning )訓(xùn)練數(shù)據(jù)。

Evol-Instruct 原則:受 WiazrdLM 提出的 Evol-Instruct 方法及其在 WizardCoder 上有效應(yīng)用的啟發(fā),該研究試圖制作具有各種復(fù)雜性和多樣性的數(shù)學(xué)指令,以增強(qiáng)預(yù)訓(xùn)練 LLM。具體來(lái)說(shuō):

  • 向下進(jìn)化:首先是增強(qiáng)指令,通過(guò)使問(wèn)題變得更加容易來(lái)實(shí)現(xiàn)。例如,i):將高難度問(wèn)題轉(zhuǎn)化為較低難度,或 ii) 用另一個(gè)不同主題制作一個(gè)新的更簡(jiǎn)單的問(wèn)題。 
  • 向上進(jìn)化:源自原始的 Evol-Instruct 方法,通過(guò) i)添加更多約束,ii)具體化,iii)增加推理來(lái)深化并產(chǎn)生新的更難的問(wèn)題。

Reinforced Evol-Instruct :受 InstructGPT 和 PRMs 的啟發(fā),該研究訓(xùn)練了兩個(gè)獎(jiǎng)勵(lì)模型,分別用來(lái)預(yù)測(cè)指令的質(zhì)量和答案中每一步的正確性。

實(shí)驗(yàn)及結(jié)果

該研究主要在 GSM8k 和 MATH 這兩個(gè)常見(jiàn)的數(shù)學(xué)基準(zhǔn)上測(cè)試了模型的性能,并使用大量基線模型,包括閉源模型:OpenAI 的 GPT-3、GPT-3.5、ChatGPT、GPT-4,谷歌的 PaLM 2、PaLM、 Minerva,Anthropic 的 Claude Instant、Claude 1.3、Claude 2, DeepMind 的 Chinchilla;開(kāi)源模型:Llama 1、Llama 2、GAL、GPT-J、GPT-Neo、Vicuna、MPT、Falcon、Baichuan、ChatGLM、Qwen 和 RFT。

圖片

與閉源模型的比較。在表 1 中,WizardMath 70B 稍微優(yōu)于 GSM8k 上的一些閉源 LLM,包括 ChatGPT、Claude Instant 和 PaLM 2 540B。

如圖 2 所示(見(jiàn)上文),WizardMath 目前在所有模型上排名前五。同時(shí),WizardMath 70B 在 MATH 上也超越了 Text-davinci-002。詳細(xì)結(jié)果如下:

WizardMath 13B 在 GSM8k 上優(yōu)于 PaLM 1 540B(63.9 vs 56.5)、Minerva 540B(63.9 vs 58.8)和 GPT-3.5(63.9 vs 57.1)。同時(shí),它在 MATH 上超越了 PaLM 1 540B(14.0 vs. 8.8)、GPT-3 175B(14.0 vs. 5.2)。

WizardMath 70B 在 GSM8k 上實(shí)現(xiàn)了與 Claude Instant(81.6 vs 80.9)、ChatGPT(81.6 vs 80.8)和 PaLM 2(81.6 vs 80.7)更好或相當(dāng)?shù)男阅?。同時(shí),WizardMath 70B 在 MATH 基準(zhǔn)測(cè)試中也超過(guò)了 Text-davinci-002(22.7 比 19.1)。

與開(kāi)源模型的比較。表 1 中所示的結(jié)果表明,WizardMath 70B 在 GSM8k 和 MATH 基準(zhǔn)測(cè)試中明顯優(yōu)于所有開(kāi)源模型。詳細(xì)結(jié)果如下:

WizardMath 7B 超越了大多數(shù)開(kāi)源模型,這些模型的參數(shù)數(shù)量約為 7B 到 40B 不等,包括 MPT、Falcon、Baichuan-chat、Vicuna v1.3、ChatGLM 2、Qwen、Llama 1 和 Llama 2 。盡管它的參數(shù)數(shù)量要少得多。

 WizardMath 13B 在 GSM8k 上明顯優(yōu)于 Llama 1 65B(63.9 vs. 50.9)和 Llama 2 70B(63.9 vs. 56.8)。此外,它在 MATH 上的表現(xiàn)遠(yuǎn)遠(yuǎn)優(yōu)于 Llama 1 65B(14.0 vs. 10.6)和 Llama 2 70B(14.0 vs. 13.5)。 

WizardMath 70B 在 GSM8k 上超越了 Llama 2 70B(81.6 比 56.8),提升達(dá)到 24.8%。同時(shí),它在數(shù)學(xué)方面也比 Llama 2 70B(22.7 比 13.5)高出 9.2%。

表 2 顯示了 WizardMath 70B 模型在 MATH Subtopics上的結(jié)果。

圖片

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-10-11 12:32:53

AI模型

2023-08-14 13:29:37

2025-04-30 16:48:07

2021-03-04 09:31:42

開(kāi)源技術(shù) 項(xiàng)目

2023-06-06 14:09:32

模型開(kāi)源

2024-04-25 09:25:33

2025-02-08 17:00:11

2018-12-06 10:07:49

微軟機(jī)器學(xué)習(xí)開(kāi)源

2025-01-22 14:02:35

2025-01-15 10:28:21

2024-02-01 12:43:00

模型訓(xùn)練

2024-10-21 16:41:17

2023-12-27 14:06:00

模型訓(xùn)練

2025-03-04 09:00:00

2024-08-19 08:45:00

開(kāi)源模型

2023-01-05 09:33:37

視覺(jué)模型訓(xùn)練

2023-04-03 09:56:22

模型系統(tǒng)

2024-12-03 15:51:45

2025-04-08 00:40:00

谷歌合成數(shù)據(jù)大模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)