自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

微軟打造 13 億參數(shù)小型 LLM AI 模型,號(hào)稱實(shí)際效果勝于千億參數(shù) GPT-3.5

人工智能
微軟團(tuán)隊(duì)表示,比起增加模型的參數(shù)量,通過(guò)提高模型的訓(xùn)練數(shù)據(jù)集質(zhì)量,也許更能強(qiáng)化模型的準(zhǔn)確率和效率,于是,他們利用高質(zhì)量數(shù)據(jù)訓(xùn)練出了 phi-1 模型。在測(cè)試中,phi-1 的分?jǐn)?shù)達(dá)到 50.6%,比起 1750 億參數(shù)的 GPT-3.5(47%)還要好。

6 月 27 日消息,AI 模型盲堆體積實(shí)際上效果并不見得更好,更多要看訓(xùn)練數(shù)據(jù)的質(zhì)量,微軟日前最近發(fā)布了一款 13 億參數(shù)的語(yǔ)言模型 phi-1,采用“教科書等級(jí)”的高品質(zhì)資料集訓(xùn)練而成,據(jù)稱“實(shí)際效果勝于千億參數(shù)的 GPT 3.5”。

▲ 圖源 Arxiv

IT之家注意到,該模型以 Transformer 架構(gòu)為基礎(chǔ),微軟團(tuán)隊(duì)使用了包括來(lái)自網(wǎng)絡(luò)的“教科書等級(jí)”數(shù)據(jù)和以 GPT-3.5 經(jīng)過(guò)處理的“邏輯嚴(yán)密的內(nèi)容”,以及 8 個(gè)英偉達(dá) A100 GPU,在短短 4 天內(nèi)完成訓(xùn)練。

▲ 圖源 Arxiv

微軟團(tuán)隊(duì)表示,比起增加模型的參數(shù)量,通過(guò)提高模型的訓(xùn)練數(shù)據(jù)集質(zhì)量,也許更能強(qiáng)化模型的準(zhǔn)確率和效率,于是,他們利用高質(zhì)量數(shù)據(jù)訓(xùn)練出了 phi-1 模型。在測(cè)試中,phi-1 的分?jǐn)?shù)達(dá)到 50.6%,比起 1750 億參數(shù)的 GPT-3.5(47%)還要好。

▲ 圖源 Arxiv

微軟表示,phi-1 接下來(lái)會(huì)在 HuggingFace 中開源,而這不是微軟第一次開發(fā)小型 LLM,此前,他們打造一款 130 億參數(shù)的 Orca,使用了 GPT-4 合成的數(shù)據(jù)訓(xùn)練而成,表現(xiàn)也同樣比 ChatGPT 更好。

目前關(guān)于 phi-1 的論文已經(jīng)在 arXiv 中發(fā)布,可以在這里找到論文的相關(guān)內(nèi)容

責(zé)任編輯:姜華 來(lái)源: IT之家
相關(guān)推薦

2024-03-28 11:15:36

開源AI

2023-12-12 13:57:00

GPT-3.5MistralAI

2023-03-15 10:26:00

模型開源

2024-04-23 13:10:41

數(shù)據(jù)訓(xùn)練

2023-03-28 09:38:10

2023-07-22 13:09:51

模型開源

2023-08-23 12:17:26

OpenAIChatGPT

2024-07-19 09:26:12

2024-07-04 15:32:13

2023-03-14 13:45:14

模型AI

2023-08-23 12:02:49

數(shù)據(jù)OpenAIGPT-3.5

2009-04-10 23:31:15

2023-04-28 09:07:28

2023-12-13 09:47:38

微軟人工智能

2023-06-21 13:37:41

模型研究

2023-12-13 12:55:39

模型數(shù)據(jù)

2023-08-06 08:06:30

OpenAIChatGPTGPT-4

2024-02-05 09:00:00

2023-09-25 09:58:25

AI框架

2023-08-23 08:54:59

OpenAIGPT-3.5
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)