自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

3710億數(shù)學(xué)tokens,全面開放!史上最大高質(zhì)量開源數(shù)學(xué)預(yù)訓(xùn)練數(shù)據(jù)集MegaMath發(fā)布

人工智能 新聞
近日,LLM360 推出了?MegaMath:全球目前最大的開源數(shù)學(xué)推理預(yù)訓(xùn)練數(shù)據(jù)集,共計(jì)?3710 億(371B)tokens,覆蓋網(wǎng)頁、代碼和高質(zhì)量合成數(shù)據(jù)三大領(lǐng)域。

在大模型邁向推理時(shí)代的當(dāng)下,數(shù)學(xué)推理能力已成為衡量語言模型智能上限的關(guān)鍵指標(biāo)。

近日,LLM360 推出了 MegaMath:全球目前最大的開源數(shù)學(xué)推理預(yù)訓(xùn)練數(shù)據(jù)集,共計(jì) 3710 億(371B)tokens,覆蓋網(wǎng)頁、代碼和高質(zhì)量合成數(shù)據(jù)三大領(lǐng)域。

圖片


這不僅是首次在規(guī)模上超越 DeepSeek-Math Corpus(120B)的開源數(shù)據(jù)集,更代表從「只靠網(wǎng)頁」到「面向推理」的重大跨越。短短數(shù)日時(shí)間,數(shù)據(jù)集下載量已經(jīng)來到 3 萬余次,并且持續(xù)在 Hugging Face 趨勢榜上名列前茅。

圖片

MegaMath數(shù)據(jù)集總覽

為什么我們需要 MegaMath?

在現(xiàn)有主流閉源數(shù)學(xué)語料如 Qwen-2.5-Math(1T)和 DeepSeekMath(120B)持續(xù)展現(xiàn)卓越數(shù)學(xué)能力的同時(shí),開源研究社區(qū)長期缺乏等量級、等質(zhì)量的數(shù)學(xué)數(shù)據(jù)。當(dāng)前可用的開源數(shù)據(jù)集(如 OpenWebMath、FineMath)規(guī)模過小,無法支撐更大規(guī)模的模型訓(xùn)練;過濾過度,導(dǎo)致數(shù)學(xué)樣本量缺失多樣性不足。

圖片

MegaMath和其他數(shù)據(jù)集的統(tǒng)計(jì)數(shù)據(jù)對比

為解決這一痛點(diǎn),MegaMath 團(tuán)隊(duì)本著「做困難而正確的事情」為目標(biāo),以規(guī)模 × 質(zhì)量 × 多樣性為核心設(shè)計(jì),歷時(shí) 9 個(gè)月時(shí)間,構(gòu)建了全面開放的數(shù)學(xué)推理數(shù)據(jù)底座。

MegaMath 數(shù)據(jù)集共計(jì) 3710 億 tokens,是之前經(jīng)典開源數(shù)學(xué)數(shù)據(jù),如 OpenWebMath 的約 20 倍。數(shù)據(jù)集共分為三大部分:

  • 2790 億 tokens:數(shù)學(xué)密集網(wǎng)頁數(shù)據(jù)(Math-rich Web)
  • 281 億 tokens:數(shù)學(xué)相關(guān)代碼(Math Code)
  • 640 億 tokens:高質(zhì)量合成數(shù)據(jù)(Synthetic Data)

每部分?jǐn)?shù)據(jù)均經(jīng)過多輪篩選、清洗并通過下游預(yù)訓(xùn)練實(shí)驗(yàn)充分驗(yàn)證,以確保實(shí)用性與泛化能力并存。

構(gòu)建 MegaMath 的秘方

如何構(gòu)建這樣一個(gè)龐大的推理數(shù)據(jù)集呢?作者將他們主要分為 3 塊內(nèi)容,并精心設(shè)計(jì)了不同的數(shù)據(jù)「流水線」,確保高效、高質(zhì)量的數(shù)據(jù)開發(fā)。

高質(zhì)量的網(wǎng)頁數(shù)據(jù)構(gòu)建

圖片

MegaMath的網(wǎng)頁數(shù)據(jù)處理流程

為了徹底優(yōu)化數(shù)學(xué)文本的處理流程,作者重新下載處理了 2014–2024 年間所有的 99 個(gè) Common Crawl 文件包,并對互聯(lián)網(wǎng)的數(shù)學(xué)文本提取進(jìn)行一系列大量的工程優(yōu)化來確保數(shù)據(jù)質(zhì)量:

  • 當(dāng)前常用的開源文本抽取工具對 HTML 中數(shù)學(xué)的元素并沒有很好地處理,團(tuán)隊(duì)因此開發(fā)了一套 HTML 結(jié)構(gòu)優(yōu)化的腳本,在抽取前就提取和優(yōu)化 LaTeX、KaTeX、mathml 等元素中的公式信息進(jìn)行重構(gòu),以確保在抽取時(shí)充分保留文本中的數(shù)學(xué)符號、公式和定理。
  • 由于不同抽取器的處理速度有區(qū)別,團(tuán)隊(duì)創(chuàng)新地采用了兩段式提取方法,第一階段注重效率,用快速的抽取器進(jìn)行抽取 + 篩除非數(shù)學(xué)樣本;第二階段注重精度,用包含更多規(guī)則的處理器進(jìn)一步移除文本噪音和精細(xì)篩選出和數(shù)學(xué)強(qiáng)相關(guān)的數(shù)據(jù)。這使得 MegaMath 最終保留出數(shù)學(xué)強(qiáng)相關(guān)、且更干凈的大規(guī)模數(shù)學(xué)文本數(shù)據(jù)。
  • 對于如何訓(xùn)練穩(wěn)健而準(zhǔn)確的文本分類器,團(tuán)隊(duì)也發(fā)現(xiàn)了因?yàn)榉N子數(shù)據(jù)收集帶來的分布偏移問題,因此在第一階段的粗篩之后通過重新收集種子數(shù)據(jù)訓(xùn)練分類器來進(jìn)行二階段篩選。
  • 考慮到目前研究社區(qū)對于續(xù)訓(xùn)練(Continual Pre-training)、中期訓(xùn)練(Mid-Training)的廣泛需求,作者還利用語言模型對文本的教育價(jià)值進(jìn)行動態(tài)打分,再次過濾得到包含極高教育價(jià)值的數(shù)學(xué)子集,并進(jìn)一步用 LLM 進(jìn)行精煉,得到了遠(yuǎn)超開源任何數(shù)據(jù)集質(zhì)量的子集;在和現(xiàn)存最高質(zhì)量的數(shù)據(jù) FineMath 進(jìn)行一對一公平對比時(shí),也能顯著超過 4% 的下游性能。

這一系列的工程優(yōu)化和技術(shù)迭代最終形成了:

  • MegaMath-Web:包含 263B tokens 的最大規(guī)?;ヂ?lián)網(wǎng)數(shù)學(xué)語料
  • MegaMath-Web-Pro:包含 15B tokens 的 LLM 優(yōu)化后的超高質(zhì)量數(shù)學(xué)語料

精確的數(shù)學(xué)代碼數(shù)據(jù)召回

圖片

MegaMath-Code的多步召回流程

代碼數(shù)據(jù)被廣泛驗(yàn)證,有利于提升模型的數(shù)學(xué)表現(xiàn)、提升模型利用「生成代碼 + 執(zhí)行求解」范式進(jìn)行解題的能力。

因此,這是一份寶貴的數(shù)據(jù)領(lǐng)域。MegaMath 在現(xiàn)存最大的代碼預(yù)訓(xùn)練數(shù)據(jù)集 Stack v2 中挖掘了數(shù)學(xué)相關(guān)代碼塊,同時(shí)結(jié)合團(tuán)隊(duì)之前提出的 Programming Every Example(ProX)方法,利用(1)大模型評分(LLM scoring);(2)微調(diào)小模型快速篩選(SLM filtering)的方式,高效清洗出了包括科學(xué)計(jì)算、符號推理、邏輯程序等領(lǐng)域的代碼數(shù)據(jù),形成 MegaMath-Code,一個(gè)包含 28.1B tokens 的數(shù)學(xué)相關(guān)語料,包含了共 11 種編程語言,進(jìn)一步加強(qiáng)了數(shù)據(jù)集的豐富程度。

大規(guī)模數(shù)學(xué)數(shù)據(jù)合成

圖片

MegaMath-Synth的三種大規(guī)模合成方法

近年來,合成數(shù)據(jù)已經(jīng)成為大模型訓(xùn)練不可缺失的一部分?jǐn)?shù)據(jù);尤其是當(dāng)傳統(tǒng)的數(shù)據(jù)已經(jīng)被大量發(fā)掘和利用的情況下,合成數(shù)據(jù)代表了一類可持續(xù)被開發(fā)的高質(zhì)量數(shù)據(jù)源。這在之前的開源預(yù)訓(xùn)練數(shù)據(jù)集中,通常是沒有被探索的。

MegaMath 團(tuán)隊(duì)積極擁抱合成數(shù)據(jù),并開源了預(yù)訓(xùn)練規(guī)模的高質(zhì)量文本,包含(1)Q&A 問答形式(解決數(shù)學(xué)題);(2)合成代碼(跨語言轉(zhuǎn)為 Python);(3)文本 + 代碼交錯(cuò)數(shù)據(jù)(更貼近真實(shí)解題場景);所有樣本都經(jīng)過質(zhì)量檢測(包括代碼塊的可執(zhí)行性校驗(yàn))。團(tuán)隊(duì)通過不斷優(yōu)化 Prompt、簡化工程設(shè)計(jì),達(dá)到在消融實(shí)驗(yàn)中表現(xiàn)全面優(yōu)于現(xiàn)有合成的基線。

效果如何,表現(xiàn)說話

圖片

MegaMath-Llama-3.2 1B / 3B的表現(xiàn)在CoT和PAL測試上均提升顯著。

MegaMath 不是單純地「堆數(shù)據(jù)」拼大小,而是對每一步都進(jìn)行了嚴(yán)謹(jǐn)驗(yàn)證以確保數(shù)據(jù)質(zhì)量

這包括:(1)文本抽取流程驗(yàn)證;(2)去重策略對比(在機(jī)器承受范圍內(nèi)尋求最優(yōu)的 MinHash 去重策略);(3)fastText 過濾閾值、訓(xùn)練策略調(diào)優(yōu);(4)代碼數(shù)據(jù)比重 & SLM 召回率消融;(5)合成策略的迭代。

為了檢驗(yàn)這些策略,所有的實(shí)驗(yàn)都在足夠大的尺度下進(jìn)行了預(yù)訓(xùn)練 + 下游評測的驗(yàn)證實(shí)驗(yàn),用來為最終的方案和策略提供足夠顯著的實(shí)驗(yàn)信號。

最終,MegaMath 共進(jìn)行了超過 50 次的預(yù)訓(xùn)練驗(yàn)證,并最終在 Llama-3.2(1B & 3B)上進(jìn)行了 100B 的預(yù)訓(xùn)練。

實(shí)驗(yàn)表明,MegaMath 能夠在 GSM8K、MATH 等數(shù) 10 個(gè)標(biāo)準(zhǔn)數(shù)學(xué)任務(wù)上取得 15–20% 的絕對提升。這些數(shù)字實(shí)打?qū)嵉卣f明了 MegaMath 數(shù)據(jù)集在數(shù)學(xué)推理上的顯著效果。

作者的愿景

作者希望,MegaMath 的發(fā)布,能在一定程度上推動開源數(shù)學(xué)預(yù)訓(xùn)練數(shù)據(jù)集在規(guī)模、質(zhì)量與多樣性上的進(jìn)一步發(fā)展,也希望 MegaMath 能成為構(gòu)建更強(qiáng)數(shù)學(xué)語言模型的一個(gè)堅(jiān)實(shí)起點(diǎn),激發(fā)更多來自學(xué)術(shù)界與工業(yè)界的合作與創(chuàng)新。

在邁向更強(qiáng)推理能力與更高智能上限的過程中,MegaMath 只是初步階段的嘗試。作為一個(gè)致力于開放科學(xué)與開源研究的團(tuán)隊(duì),團(tuán)隊(duì)深知這項(xiàng)工作的挑戰(zhàn)與局限,也非常感激開源社區(qū)給予的諸多啟發(fā)與幫助。

特別感謝 Hugging Face、DeepSeek、Qwen 等優(yōu)秀開源團(tuán)隊(duì)長期以來提供的模型、工具和數(shù)據(jù)方案,讓團(tuán)隊(duì)有機(jī)會站在巨人的肩膀上持續(xù)打磨和完善這個(gè)工作。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2025-02-18 15:03:58

數(shù)據(jù)AI模型

2020-01-09 11:30:40

AI 數(shù)據(jù)人工智能

2024-06-11 08:40:00

2023-09-01 14:42:39

數(shù)據(jù)研究

2011-05-31 13:43:46

外鏈

2017-07-14 09:54:47

代碼函數(shù)程序

2024-01-12 15:29:41

模型訓(xùn)練

2024-08-26 15:20:45

2021-08-08 14:26:24

SQL數(shù)據(jù)庫開發(fā)

2024-07-22 13:10:12

2009-05-19 15:01:26

地理信息ArcGIS地圖服務(wù)

2020-02-24 10:51:25

微軟開源Windows

2024-03-07 12:30:56

數(shù)據(jù)模型

2012-09-13 10:44:18

Python代碼

2011-03-04 10:11:09

JavascriptAPI

2011-07-20 15:26:52

C++

2015-08-19 08:54:23

Android開發(fā)框架

2023-10-15 12:07:09

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號