自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

小模型站起來了,瀏覽器里跑出SOTA,抱抱臉:快逃,合成數(shù)據(jù)不是未來

人工智能 新聞
抱抱臉首席科學家Thomas Wolf,總結團隊在開發(fā)小模型時的經(jīng)驗,拋出新觀點,引起業(yè)界關注

瀏覽器里直接能跑的SOTA小模型來了,分別在2億、5億和20億級別獲勝,抱抱臉出品。

圖片

秘訣只有兩個:

  • 狠狠地過濾數(shù)據(jù)
  • 在高度過濾的數(shù)據(jù)集上狠狠地訓練

抱抱臉首席科學家Thomas Wolf,總結團隊在開發(fā)小模型時的經(jīng)驗,拋出新觀點,引起業(yè)界關注:

合成數(shù)據(jù)目前只在特定領域有用,網(wǎng)絡是如此之大和多樣化,真實數(shù)據(jù)的潛力還沒完全發(fā)揮。

圖片

目前360M模型版本已發(fā)布Demo,在線可玩(注意流量)。

圖片

在瀏覽器里調(diào)用本地GPU運行,連模型權重帶網(wǎng)頁前端UI,400MB搞定。

圖片

嚴格過濾網(wǎng)絡數(shù)據(jù),性能直線上升

針對微軟Phi系列小模型,聲稱使用了一半合成數(shù)據(jù),效果很好,但不公開數(shù)據(jù)。

開源界扛把子抱抱臉看不下去了:

造一個對標的大型合成數(shù)據(jù)集,開源它。

而且,團隊隱隱暗示了,此舉也有檢驗微軟在測試集上刷榜的傳聞,到底有沒有這回事的考慮。

圖片

抱抱臉使用當時最好的開源模型Mixtral-8-7B構造了25B合成數(shù)據(jù)。

訓練出來的模型效果還不錯,但仍然在某種程度上低于Phi-1和Phi-1.5的水平。

他們嘗試了讓大模型在中學水平上解釋各種主題,最終只有在MMLU測試上表現(xiàn)不好,因為MMLU是博士水平的題目。
圖片

真正的性能突破,反而來自一項支線任務

除了用大模型從頭生成合成數(shù)據(jù),也試試用大模型篩選過濾網(wǎng)絡數(shù)據(jù)。

具體來說是使用Llama3-70B-Struct 生成的標注開發(fā)了一個分類器,僅保留FineWeb數(shù)據(jù)集中最具教育意義的網(wǎng)頁。

使用經(jīng)過嚴格過濾的網(wǎng)絡數(shù)據(jù)后,性能直線上升,并在大多數(shù)基準測試中超過了所有其他類似大小的模型,包括Phi-1.5。

圖片

抱抱臉團隊稱這項實驗結果是“苦樂參半”的:雖然模型性能前所未有的高,但也顯示出了合成數(shù)據(jù)還是比不過真實數(shù)據(jù)。

后來他們用同樣的思路從自然語言擴展到代碼,過濾的代碼數(shù)據(jù)集也被證明是非常強大的。

將HumanEval基準測試成績從13%左右直接提高到20%以上。

最終他們構造的混合數(shù)據(jù)集中,去重的過濾數(shù)據(jù)集占絕大部分,純合成數(shù)據(jù)Cosmopedia v2只占15%。

圖片

所以總得來說,合成數(shù)據(jù)還有用嗎?

團隊認為,可能只對確實缺少真實數(shù)據(jù)的領域更有意義了,比如推理和數(shù)學。

圖片

即使小模型也要訓練數(shù)萬億tokens

就在他們對這些新發(fā)現(xiàn)和結果感到興奮時,一位新實習生Elie Bakouch加入了。

雖然他當時只是實習生,但確是一位精通各類訓練技巧的專家。

圖片

在Elie的幫助下,團隊將模型尺寸從1.7B開始下降到360M甚至170M,也就是對標經(jīng)典模型GPT-1、GPT-2和BERT。

在這個過程中有了第二個重要發(fā)現(xiàn):與過去的共識不同,即使是小模型也要在數(shù)萬億token上訓練,時間越長越好。

此外數(shù)據(jù)退火(Anneal the data)也被證明是有效的,也就是在訓練的最后一部分保留一組特殊的高質(zhì)量數(shù)據(jù)。

最終發(fā)布的系列模型適合部署在從智能手機到筆記本電腦的各種設備上,最大的1.7B模型BF16精度只占3G內(nèi)存。

作為參考,iPhone 15入門版也有6G,安卓手機就更多了。

圖片

雖然這次訓練出來的基礎模型足夠好,但團隊也還是發(fā)現(xiàn)一個問題。

過去的對齊和微調(diào)技術,如SFT、DPO、PPO等都是針對大模型非常有效,但對小模型效果并不理想。

團隊分析,對齊數(shù)據(jù)集中包含許多對小模型來說過于復雜的概念,并且缺乏精心設計的簡單任務。

下一個新坑也挖好了,有興趣的團隊可以開始搞起,沒準就成了小模型大救星。

在線試玩:https://huggingface.co/spaces/HuggingFaceTB/instant-smollm

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-03-26 09:29:12

ChatGPT4o 圖像圖像

2016-01-06 13:07:34

獨立游戲開發(fā)者趨勢

2022-06-30 19:37:28

操作系統(tǒng)麒麟

2024-08-13 13:30:00

2015-10-19 10:06:42

程序員健康運動

2022-08-11 08:00:00

機器學習合成數(shù)據(jù)深度學習

2022-01-10 10:23:07

瀏覽器Vitenode

2023-02-23 07:46:48

學習模型數(shù)據(jù)倉庫

2009-11-26 10:55:41

2024-12-27 10:00:00

數(shù)據(jù)自動駕駛

2016-12-23 17:28:05

移動操作系統(tǒng)瀏覽器APP

2022-06-13 11:18:08

合成數(shù)據(jù)AIML

2012-03-30 14:52:03

瀏覽器大戰(zhàn)

2024-01-08 13:38:00

AI模型

2012-09-20 14:29:57

獵豹

2024-08-19 13:18:12

2024-04-18 08:38:15

LLM數(shù)據(jù)訓練模型

2009-04-25 09:30:55

Firefox瀏覽器

2012-03-20 11:41:18

海豚瀏覽器

2012-03-20 11:31:58

移動瀏覽器
點贊
收藏

51CTO技術棧公眾號