自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

陳丹琦團隊降本大法又來了:數(shù)據(jù)砍掉三分之一,性能卻完全不減

人工智能 新聞
雖然之前元數(shù)據(jù)談過很多,但一作高天宇表示,他們是第一個展示它如何影響下游性能,以及具體如何實踐以確保推理中具備普遍實用性。

陳丹琦團隊又帶著他們的降本大法來了——

數(shù)據(jù)砍掉三分之一,大模型性能卻完全不減。

他們引入了元數(shù)據(jù),加速了大模型預訓練的同時,也不增加單獨的計算開銷。

圖片

在不同模型規(guī)模(600M - 8B)和訓練數(shù)據(jù)來源的情況下,均能實現(xiàn)性能方面的提升。

雖然之前元數(shù)據(jù)談過很多,但一作高天宇表示,他們是第一個展示它如何影響下游性能,以及具體如何實踐以確保推理中具備普遍實用性。

圖片

來看看具體是如何做到的吧?

元數(shù)據(jù)加速大模型預訓練

語言模型預訓練語料庫中存在著風格、領域和質量水平的巨大差異,這對于開發(fā)通用模型能力至關重要,但是高效地學習和部署這些異構數(shù)據(jù)源中每一種數(shù)據(jù)源的正確行為卻極具挑戰(zhàn)性。

在這一背景下,他們提出了一種新的預訓練方法,稱為元數(shù)據(jù)調節(jié)然后冷卻(MeCo,Metadata Conditioning then Cooldown)。

圖片

具體包括兩個訓練階段。

預訓練階段(90%),將元數(shù)據(jù)(如文檔 URL 的絕對域名c)與文檔拼接(如 “URL: en.wikipedia.org\n\n [document]”)進行訓練。

(例如,如果文檔的 URL 是 https://en.wikipedia.org/wiki/Bill Gates,那么文檔 URL 的絕對域名c就是 en.wikipedia.org;這種 URL 信息在許多預訓練語料庫中都很容易獲得,它們大多來自 CommonCrawl2(一個開放的網(wǎng)絡抓取數(shù)據(jù)存儲庫))
當使用其他類型的元數(shù)據(jù)時,URL 應替換為相應的元數(shù)據(jù)名稱。

他們只計算文檔標記的交叉熵損失,而不考慮模板或元數(shù)據(jù)中的標記,因為在初步實驗中發(fā)現(xiàn),對這些標記進行訓練會略微損害下游性能。

最后10%的訓練步驟為冷卻階段,使用標準數(shù)據(jù)訓練,繼承元數(shù)據(jù)調節(jié)階段的學習率和優(yōu)化器狀態(tài),即從上一階段的最后一個檢查點初始化學習率、模型參數(shù)和優(yōu)化器狀態(tài),并繼續(xù)根據(jù)計劃調整學習率:

1)禁用跨文檔Attention,這既加快了訓練速度(1.6B 模型的訓練速度提高了 25%),又提高了下游性能。

2)當將多個文檔打包成一個序列時,我們確保每個序列從一個新文檔開始,而不是從一個文檔的中間開始—當將文檔打包成固定長度時,這可能會導致一些數(shù)據(jù)被丟棄,但事實證明這有利于提高下游性能。

本次實驗使用了Llama Transformer架構和Llama-3 tokenizer。我們使用四種不同的模型大小進行了實驗:600M、1.6B、3B 和 8B,以及相關優(yōu)化設置。

結果顯示,MeCo 的表現(xiàn)明顯優(yōu)于標準預訓練,其平均性能與 240B 標記的基線相當,而使用的數(shù)據(jù)卻減少了 33%。

圖片

最后總結,他們主要完成了這三項貢獻。

1、 MeCo 大幅加快了預訓練

實驗證明,MeCo 使一個 1.6B 的模型在少用 33% 的訓練數(shù)據(jù)的情況下,達到了與標準預訓練模型相同的平均下游性能。在不同的模型規(guī)模(600M、1.6B、3B 和 8B)和數(shù)據(jù)源(C4、RefinedWeb 和 DCLM)下,MeCo 顯示出一致的收益。

圖片
圖片

2、MeCo 開啟了引導語言模型的新方法。

例如,使用factquizmaster.com(非真實URL)可以提高常識性任務的性能(例如,在零次常識性問題解答中絕對提高了6%),而使用wikipedia.org與標準的無條件推理相比,毒性生成的可能性降低了數(shù)倍。

圖片
圖片

3、消解了 MeCo 的設計選擇,并證明 MeCo 與不同類型的元數(shù)據(jù)兼容。

使用散列 URL 和模型生成的主題進行的分析表明,元數(shù)據(jù)的主要作用是按來源將文檔歸類。因此,即使沒有URL,MeCo 也能有效地整合不同類型的元數(shù)據(jù),包括更精細的選項。

圖片

陳丹琦團隊

論文作者來自普林斯頓NLP小組(隸屬于普林斯頓語言與智能PLI)博士生高天宇、Alexander Wettig、Luxi He、YiHe Dong、Sadhika Malladi以及陳丹琦。

一作高天宇,本科畢業(yè)于清華,是2019年清華特獎得主,目前普林斯頓五年級博士生,預計今年畢業(yè),繼續(xù)在學界搞研究,研究領域包括自然語言處理和機器學習的交叉領域,特別關注大語言模型(LLM),包括構建應用程序、提高LLM功能和效率。

圖片

Luxi He目前是普林斯頓計算機專業(yè)二年級博士生,目前研究重點是理解語言模型并改善其一致性和安全性,碩士畢業(yè)于哈佛大學。

YiHe Dong目前在谷歌從事機器學習研究和工程工作,專注于結構化數(shù)據(jù)的表示學習、自動化特征工程和多模態(tài)表示學習,本科畢業(yè)于普林斯頓。

責任編輯:張燕妮 來源: 量子位
相關推薦

2015-08-14 16:59:53

2009-02-25 08:50:45

Mini9戴爾Linux

2009-12-09 09:50:15

上網(wǎng)本Linux

2010-10-28 13:27:19

2020-02-06 10:01:20

安全網(wǎng)絡欺詐數(shù)字

2009-04-27 09:57:47

員工竊取信息安全

2012-04-04 13:02:06

iPhone

2021-10-25 22:30:11

加密貨幣比特幣貨幣

2021-02-19 13:06:14

加密貨幣比特幣貨幣

2015-09-28 11:20:54

農業(yè)大數(shù)據(jù)美國

2011-05-16 14:03:54

2009-03-26 08:53:39

微軟IE8瀏覽器

2013-04-08 09:42:03

云服務市場亞馬遜

2022-09-14 18:24:19

AB實驗平臺自動化

2021-02-19 11:06:32

物聯(lián)網(wǎng)平臺物聯(lián)網(wǎng)IOT

2024-05-28 09:28:26

2023-06-19 08:12:41

MetaAI

2015-06-29 09:37:39

數(shù)據(jù)中心數(shù)據(jù)中心服務器

2022-06-07 14:21:08

恢復數(shù)據(jù)IT領導者

2015-09-28 10:14:07

it職位數(shù)據(jù)
點贊
收藏

51CTO技術棧公眾號