自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

FineWeb技術(shù)報告出爐!揭秘HuggingFace規(guī)模最大、質(zhì)量最高預(yù)訓(xùn)練數(shù)據(jù)集

人工智能 新聞
從大規(guī)模網(wǎng)絡(luò)爬取、精細過濾到去重技術(shù),通過FineWeb的技術(shù)報告探索如何打造高質(zhì)量數(shù)據(jù)集,為大型語言模型(LLM)預(yù)訓(xùn)練提供更優(yōu)質(zhì)的性能。

大型語言模型(LLMs)的性能在很大程度上取決于它的預(yù)訓(xùn)練數(shù)據(jù)集的質(zhì)量和大小。

然而,像Llama 3和Mixtral這樣最先進的LLMs的預(yù)訓(xùn)練數(shù)據(jù)集并不公開;關(guān)于它們是如何創(chuàng)建的,我們知之甚少。

近日,Hugging Face上的一個團隊發(fā)布了FineWeb數(shù)據(jù)集,這是一個用于LLM預(yù)訓(xùn)練的新型大規(guī)模(15萬億個tokens,44TB磁盤空間)數(shù)據(jù)集。

同時,他們還通過技術(shù)報告詳細介紹了該數(shù)據(jù)集的加工決策過程:FineWeb源自96個CommonCrawl快照,它是如何通過縝密的去重和過濾策略,比其他開放預(yù)訓(xùn)練數(shù)據(jù)集產(chǎn)生了表現(xiàn)更好的LLM的。

創(chuàng)建數(shù)據(jù)集的準備工作

開始創(chuàng)建數(shù)據(jù)集的第一步,需要考慮的問題是如何獲取到大規(guī)模的數(shù)據(jù)。

Common Crawl這個非營利組織自2007年以來一直在爬取網(wǎng)絡(luò)數(shù)據(jù),并且每1到2個月發(fā)布一次新的爬取,包含200到400 TiB的文本內(nèi)容。

于是,Common Crawl就作為了FineWeb數(shù)據(jù)集的起點。

其次,由于涉及的數(shù)據(jù)量巨大,需要一個模塊化且可擴展的代碼庫來快速迭代處理決策并適當(dāng)?shù)夭⑿谢ぷ髫撦d,同時提供對數(shù)據(jù)的清晰洞察。

為此,該團隊開發(fā)了datatrove,這是一個開源數(shù)據(jù)處理庫,能夠?qū)⑦^濾和去重設(shè)置無縫擴展到數(shù)千個CPU核心。

在創(chuàng)建數(shù)據(jù)集時,需要考慮的主要問題是什么是“高質(zhì)量”的數(shù)據(jù)。

一種常用的方法是在數(shù)據(jù)集的一個代表性子集上訓(xùn)練小型模型,并在一組評估任務(wù)上評估它們。

研究者在兩個版本的數(shù)據(jù)集上訓(xùn)練了兩個結(jié)構(gòu)相同的模型,一個經(jīng)過額外處理步驟,另一個沒有,以此來比較數(shù)據(jù)處理步驟對模型性能的影響。

他們選用了Commonsense QA、HellaSwag、OpenBook QA等基準測試來評估模型,并限制較長基準測試的樣本量以避免過度擬合,確保模型評估結(jié)果的可靠性和泛化能力。

數(shù)據(jù)集是怎么去重和過濾的

下圖概括了FineWeb數(shù)據(jù)集生成的主要步驟:

URL過濾→文本提取→語言過濾→Gopher過濾→MinHash去重→C4過濾器→自定義過濾器→PII(個人身份信息)移除

圖片

本文主要介紹去重和過濾的部分,因為對于創(chuàng)建高質(zhì)量數(shù)據(jù)集來說,這兩個步驟對于提高模型性能、增加數(shù)據(jù)多樣性和清潔度方面至關(guān)重要。

數(shù)據(jù)去重

網(wǎng)絡(luò)中存在許多聚合器、鏡像站點或模板化頁面,這些都可能導(dǎo)致內(nèi)容在不同域名和網(wǎng)頁上重復(fù)出現(xiàn)。

去除這些重復(fù)內(nèi)容(去重)已被證明可以提高模型性能,并減少對預(yù)訓(xùn)練數(shù)據(jù)的記憶,這有助于模型更好地泛化。

研究者采用了MinHash這種基于模糊哈希的去重技術(shù),因為它可以有效地擴展到許多CPU節(jié)點,并可以調(diào)整相似性閾值(通過控制bucket的數(shù)量和大?。┮约翱紤]的子序列長度(通過控制n-gram大?。?。

研究者拆分每個文檔為5-gram,使用112個哈希函數(shù)計算minhashes。

112個哈希函數(shù)被分成14個bucket,每個bucket有8個哈希,目的是定位至少75%相似的文檔。

在任何bucket中具有相同8個minhashes的文檔被認為是彼此的重復(fù)。

需要注意的是,研究者發(fā)現(xiàn)一個奇怪的現(xiàn)象:雖然去重后數(shù)據(jù)量少了很多(比如最舊的數(shù)據(jù)包,去重后只剩下了原來10%的內(nèi)容),但用這些去重后的數(shù)據(jù)去訓(xùn)練模型的時候,模型的表現(xiàn)并沒有變好,甚至比之前用沒有去重的數(shù)據(jù)訓(xùn)練的模型還要差。

圖片

在所有數(shù)據(jù)包上進行去重并沒有提高性能

這說明,有時候去重去得太狠了,可能把一些有用的內(nèi)容也給去除了,留下的那些內(nèi)容反而質(zhì)量不高。

這也提醒我們,需要找到一個平衡點,既要去除重復(fù)、低質(zhì)量的數(shù)據(jù),也要保留足夠的、有價值的信息。

為了改進去重方法,研究者嘗試了一種新策略:對每個單獨的數(shù)據(jù)包使用MinHash技術(shù)進行獨立的去重,而不是將所有數(shù)據(jù)包合并在一起去重。

通過這種方式,平衡了每個重復(fù)次數(shù)較多的集群和重復(fù)次數(shù)較少的集群之間的分布差異,讓去重更加的「溫和」。

數(shù)據(jù)過濾

首先介紹一下C4數(shù)據(jù)集,這是一個大型語言模型(LLM)訓(xùn)練的常用數(shù)據(jù)子集,它在Hellaswag基準測試中表現(xiàn)十分出色。

FineWeb的研究者首先參照C4的過濾策略,先是匹配它的性能,然后是超越。

通過應(yīng)用所有過濾規(guī)則(去除不以標點符號結(jié)尾的行、提及JavaScript和cookie通知,以及去除不在長度閾值內(nèi)的文檔,包含“l(fā)orem ipsum”或花括號{}),他們能夠匹配C4在Hellaswag上的表現(xiàn)。

然后,通過多次的消融研究,研究者確定了三個自定義過濾器在綜合分數(shù)上顯示出最顯著的改進:

  • 移除以標點符號結(jié)尾的行的比例≤0.12的文檔(移除了10.14%的token)
  • 移除在重復(fù)行中字符的比例≥0.1的文檔(移除了12.47%的token)
  • 移除短于30個字符的行的比例≥0.67的文檔(移除了3.73%的token)

圖片

當(dāng)這三個過濾器一起應(yīng)用時,大約22%的標記被移除。

這些過濾器使他們能夠進一步提高性能,并顯著地超過了C4數(shù)據(jù)集的性能,同時提供了一個更大的數(shù)據(jù)集。

FineWeb數(shù)據(jù)集的表現(xiàn)

通過與其他通常被認為是最高質(zhì)量的公開可訪問的網(wǎng)絡(luò)規(guī)模數(shù)據(jù)集進行了消融比較,包括RefinedWeb(5000億個標記)、C4(1720億個標記)、Dolma v1.6(3萬億個標記)等, FineWeb(15萬億個標記)在允許訓(xùn)練數(shù)萬億個標記的同時,帶來了目前最高的模型性能。

圖片

除此之外,該團隊還發(fā)布了FineWeb-Edu,F(xiàn)ineWeb-Edu的開發(fā)采用了一種新方法,即利用合成數(shù)據(jù)來開發(fā)用于識別教育內(nèi)容的分類器。

針對教育領(lǐng)域,通過增加教育質(zhì)量評分的注釋和增加了單獨的評分系統(tǒng),研究者創(chuàng)建了一個有效的分類器,可以在大規(guī)模數(shù)據(jù)集上識別和過濾出具有教育價值的內(nèi)容。

FineWeb-Edu在教育基準測試如MMLU、ARC和OpenBookQA上取得了顯著改進,超過了 FineWeb和其他所有開放的網(wǎng)絡(luò)數(shù)據(jù)集。

圖片

同時,F(xiàn)ineWeb-Edu的生成也證明了使用LLM注釋訓(xùn)練的分類器在大規(guī)模數(shù)據(jù)過濾中的有效性。

在技術(shù)報告的最后,研究者表示,希望持續(xù)揭示高性能大型語言模型訓(xùn)練的黑箱,并讓每個模型訓(xùn)練者都能創(chuàng)建最先進的LLM。

他們也期待將FineWeb的經(jīng)驗和學(xué)習(xí)應(yīng)用到其他的非英文語言,使多語言的高質(zhì)量網(wǎng)絡(luò)數(shù)據(jù)也能夠更容易地被獲取到。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2025-04-14 09:26:00

2022-01-06 09:57:02

數(shù)據(jù)計算機神經(jīng)網(wǎng)絡(luò)

2013-05-09 10:30:44

開源軟件開源項目

2024-01-03 18:53:13

語言模型LLM

2025-03-18 08:00:00

豆包文生圖技術(shù)Seedream

2023-07-27 18:33:08

Go薪資JS

2025-03-13 07:00:00

2020-09-27 16:21:28

AI數(shù)據(jù)

2021-04-19 11:02:06

阿里云達摩院AI

2021-11-15 10:00:22

模型人工智能NLP

2019-03-21 16:27:21

數(shù)據(jù)開發(fā)機器學(xué)習(xí)

2024-08-14 14:22:00

2024-07-02 01:09:02

2023-07-09 15:24:58

2024-08-28 08:25:25

Python預(yù)訓(xùn)練模型情緒數(shù)據(jù)集

2022-09-30 15:28:05

BERT語言模型自然語言

2012-02-20 14:49:31

360垃圾短信

2023-12-21 13:26:13

谷歌Gemini大模型

2020-03-25 13:51:05

人工智能自動駕駛技術(shù)

2023-03-05 15:51:54

AIGCChatGPT
點贊
收藏

51CTO技術(shù)棧公眾號