自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

70萬預算從頭開發(fā)千億參數(shù)大模型,挑戰(zhàn)成功

人工智能 新聞
得益于研究團隊的新型訓練策略,F(xiàn)LM只用了2.17%的花銷,就達到了可以比肩GPT-3的效果,在開發(fā)社區(qū)引起不小關(guān)注。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

預算10萬美元(約73萬人民幣),從頭訓練一個全新的千億參數(shù)大模型。

智源研究院與國內(nèi)多所高校及南洋理工聯(lián)合團隊,挑戰(zhàn)成功。

要知道,當GPT-3的訓練成本可是高達460萬美元,近一些的Llama2據(jù)估算也大概是這個數(shù)。

這個用10萬美元訓練出的大模型名叫FLM,擁有1010億參數(shù)量,目前已經(jīng)開源。

得益于研究團隊的新型訓練策略,F(xiàn)LM只用了2.17%的花銷,就達到了可以比肩GPT-3的效果,在開發(fā)社區(qū)引起不小關(guān)注。

圖片

那么,F(xiàn)LM團隊是如何把訓練成本降低近50倍的呢?

“成長策略”降低訓練成本

不管是租還是買,硬件的價格都擺在那動不了,所以只能是通過減少運算量來降低成本。

為了降低訓練過程中的運算量,研究團隊在FLM中采用了一種“成長策略”。

也就是先訓練16B參數(shù)的小規(guī)模模型,然后擴大到51B,最終再擴展到101B版本。

由于訓練低參數(shù)量模型的運算效率更高,這種循序漸進的訓練方式成本要低于一步登天。

看到這里也許有的讀者會有疑問,其他模型不是也有分成多個參數(shù)量的版本嗎?

是沒錯,但是這些參數(shù)量不同的同種模型是分別進行訓練的,這造成了大量的重復計算,因而成本并不低。

而FLM采用的“成長策略”在訓練大規(guī)模版本時會直接繼承低參數(shù)量模型中已有的知識,降低了重復運算率。

而具體參數(shù)的確定,應用了loss prediction技術(shù),即根據(jù)低參數(shù)模型的訓練損失預測出高參數(shù)量模型的損失。

除了這種“由小及大”的“成長策略”之外,F(xiàn)LM的訓練過程中還通過改善并行策略來提高吞吐量。

FLM使用的是混合并行策略,將多種并行方式進行最優(yōu)化配置,達到高吞吐量,單GPU利用率超過了50%。

團隊還利用序列并行和分布式優(yōu)化器技術(shù),將輸入序列和優(yōu)化器狀態(tài)分配到不同GPU,減輕了單個GPU的計算和內(nèi)存壓力。

那么,這種“成長策略”訓練出的FLM表現(xiàn)又如何呢?作者給出了Open LLM數(shù)據(jù)集的測試結(jié)果。

FLM在四個項目中取得的平均成績接近GLM-120B和Llama-7B,但訓練成本顯著低于二者。

而在其中的TruthfulQA單項中,F(xiàn)LM的成績甚至超過了Llama 2。

專業(yè)知識方面,16B參數(shù)的eFLM在C-eval評測中,平均成績超過了130B參數(shù)的GLM,并接近ChatGPT。

除了這些一般的benchmark,F(xiàn)LM團隊還提出了一項大模型“IQ測試”。

給大模型“測智商”

FLM團隊提出的大模型“智商測試”重點考察模型的推理泛化能力,而非知識儲備。

這項測試從如下四個維度進行了展開:

  • 符號映射:使用隨機符號替換分類標簽,評估模型推理和泛化能力,避免過度擬合。
  • 規(guī)則理解:檢驗模型能否按照給定規(guī)則進行操作,如“計數(shù)”、“字符串替換”等。
  • 模式挖掘:給出示例,讓模型歸納推導出規(guī)律并應用,如“頭尾添加”等。
  • 抗干擾能力:在噪聲環(huán)境中提取關(guān)鍵信息,包括多關(guān)鍵信息提取、單論據(jù)追蹤和雙論據(jù)追蹤三項內(nèi)容。

其中第一、三、四項的示例如下圖所示:

那么,F(xiàn)LM面對自家提出的測評標準,成績到底怎么樣呢?

符號映射測評中,F(xiàn)LM以低一個數(shù)量級的運算量在SuperGLUE數(shù)據(jù)集上取得了與GLM和GPT-3相近的成績,在CLUE數(shù)據(jù)集上的表現(xiàn)更是超過了GLM。

其余三個項目的成績也都超過了GLM,并接近GPT-3。

論文地址:https://arxiv.org/abs/2309.03852Hugging Face項目頁:
https://huggingface.co/CofeAI/FLM-101B

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-08-20 07:52:56

語言模型參數(shù)PaLM

2022-12-26 14:00:10

模型升級

2022-09-13 21:32:09

毫末

2024-01-30 21:18:57

模型智能CMMLU

2023-08-03 19:11:45

2023-04-21 10:37:40

語言模型

2024-03-18 13:11:47

2021-04-26 15:41:02

計算

2023-08-24 14:27:00

AI模型

2013-08-28 10:53:21

移動平臺長尾應用僵尸應用

2009-11-16 15:35:07

預算管理博科資訊

2024-08-01 12:48:27

2012-02-20 09:41:08

IT預算削減

2023-08-28 00:46:05

計算機模型

2009-12-31 08:49:15

模型驅(qū)動開發(fā)

2022-09-08 12:11:50

開源OPT云上服務

2022-05-05 08:25:22

模型OpenAI代碼
點贊
收藏

51CTO技術(shù)棧公眾號