自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

340B險(xiǎn)勝70B,Kimi機(jī)器人貼臉“嘲諷”英偉達(dá)新開源模型

人工智能 新聞
英偉達(dá)上周五突然宣布開源Nemotron-4 340B,該系列包括基礎(chǔ)模型、指令模型和獎勵模型,用于生成訓(xùn)練和改進(jìn)LLM的合成數(shù)據(jù)。

排名超過Llama-3-70B,英偉達(dá)Nemotron-4 340B問鼎競技場最強(qiáng)開源模型!

前兩天,英偉達(dá)突然開源了其通用大模型Nemotron的3400億參數(shù)版本。

就在最近,競技場更新了排名情況:

圖片

勝率熱圖顯示,Nemotron-4 340B對陣Llama-3-70B的勝率為53%

圖片

究竟Nemotron-4 340B表現(xiàn)如何?接下來一起看看。

新模型最新戰(zhàn)績

簡單回顧一下,英偉達(dá)上周五突然宣布開源Nemotron-4 340B,該系列包括基礎(chǔ)模型、指令模型和獎勵模型,用于生成訓(xùn)練和改進(jìn)LLM的合成數(shù)據(jù)。

Nemotron-4 340B一經(jīng)發(fā)布便瞬時(shí)登頂Hugging Face RewardBench 榜一

圖片

緊接著,競技場新近公布了Nemotron-4 340B的一系列測評結(jié)果。

長文本查詢(長度>=500個token)中,Nemotron-4 340B排在第5位,超過Claude 3 Sonnet及Qwen 2-72B等主流開源模型。

圖片

處理硬提示方面,Nemotron-4 340B超越了Claude 3 Sonnet和Llama3 70B-Instruct,顯示出其在應(yīng)對復(fù)雜和高難度查詢時(shí)的卓越能力。

圖片

整體性能評估中,Nemotron-4 340B的評分和穩(wěn)定性均處于中上水平,超越了多款知名開源模型。

圖片

概括一下,Nemotron-4 340B已經(jīng)取得了不錯的戰(zhàn)績,直接超越了Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,有時(shí)甚至可以和GPT-4一較高下。

其實(shí),以前這個模型就曾登上大模型競技場LMSys Chatbot Arena,當(dāng)時(shí)它的別名是june-chatbot。

圖片

具體來說,這個模型支持4K上下文窗口、50多種自然語言和40多種編程語言,訓(xùn)練數(shù)據(jù)截止到2023年6月。

訓(xùn)練數(shù)據(jù)方面,英偉達(dá)采用了高達(dá)9萬億個token。其中,8萬億用于預(yù)訓(xùn)練,1萬億用于繼續(xù)訓(xùn)練以提高質(zhì)量。

BF16精度下,模型的推理需要8塊H200,或16塊H100/A100 80GB。如果是在FP8精度下,則只需8塊H100。

圖片

值得一提的是,指令模型的訓(xùn)練是在98%的合成數(shù)據(jù)上完成的。

而合成數(shù)據(jù)無疑是Nemotron-4 340B的最大亮點(diǎn),它有可能徹底改變訓(xùn)練LLM的方式。

合成數(shù)據(jù)才是未來

面對最新排名,興奮的網(wǎng)友們突然咂摸出一絲不對勁:

用340B對戰(zhàn)70B,而且還是險(xiǎn)勝,這事兒有點(diǎn)說不過去吧!

圖片

就連機(jī)器人Kimi也對此開啟了“嘲諷”模式:

英偉達(dá)這波操作,參數(shù)大得像宇宙,性能卻跟Llama-3-70B肩并肩,科技界的”大號小能”啊!

圖片

對此,在英偉達(dá)負(fù)責(zé)AI模型對齊和定制的Oleksii Kuchaiev拿出了關(guān)鍵法寶:

圖片

是的,Nemotron-4 340B商用友好,支持生成合成數(shù)據(jù)

高級深度學(xué)習(xí)研究工程師Somshubra Majumdar對此表示大贊:

你可以用它(免費(fèi))生成你想要的所有數(shù)據(jù)

圖片

這一突破性進(jìn)展,標(biāo)志著AI行業(yè)的一個重要里程碑——

從此,各行各業(yè)都無需依賴大量昂貴的真實(shí)世界數(shù)據(jù)集了,用合成數(shù)據(jù),就可以創(chuàng)建性能強(qiáng)大的特定領(lǐng)域LLM!

那么,英偉達(dá)具體是如何實(shí)現(xiàn)的呢?

一句話概括,這與它開源通常不發(fā)布的獎勵模型有關(guān)。

圖片

生成高質(zhì)量合成數(shù)據(jù)不僅需要優(yōu)秀的指導(dǎo)模型,還需根據(jù)特定需求進(jìn)行數(shù)據(jù)篩選。

通常,使用同一模型作為評分者(LLM-as-Judge);但在特定情況下,采用專門的獎勵模型(Reward-Model-as-Judge)進(jìn)行評估更為合適。

而Nemotron-4 340B指令模型可以生成高質(zhì)量的數(shù)據(jù),然后獎勵模型可以過濾掉多個屬性的數(shù)據(jù)。

它會根據(jù)有用性、正確性、一致性、復(fù)雜性和冗長性這5個屬性,對響應(yīng)評分。

圖片

另外,研究者可以使用自己的專用數(shù)據(jù),再結(jié)合HelpSteer2數(shù)據(jù)集,定制Nemotron-4 340B基礎(chǔ)模型,以創(chuàng)建自己的指令或獎勵模型。

回到一開頭和Llama-3-70B的對戰(zhàn),Nemotron-4 340B擁有更寬松的許可,或許這才是它的真正價(jià)值所在。

畢竟數(shù)據(jù)短缺早已成為業(yè)內(nèi)普遍痛點(diǎn)。

圖片

據(jù)Epoch研究所的AI研究員Pablo Villalobos預(yù)測,到2024年年中,對高質(zhì)量數(shù)據(jù)的需求超過供給的可能性為50%,到2026年發(fā)生這種情況的可能性為90%。

新的預(yù)期顯示,這種短缺風(fēng)險(xiǎn)將延遲至2028年。

合成數(shù)據(jù)才是未來正逐漸成為行業(yè)共識……

模型地址:https://huggingface.co/nvidia/Nemotron-4-340B-Instruct

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-06-17 08:55:00

2025-01-08 09:30:00

Meta大模型訓(xùn)練

2024-10-17 13:30:00

2024-12-18 07:10:00

2024-09-09 08:50:00

2024-11-25 08:20:00

2024-06-05 08:33:29

2025-03-24 08:06:00

2023-08-14 13:29:37

2024-05-30 12:50:05

2025-03-19 10:05:02

2023-10-09 12:36:08

人工智能數(shù)據(jù)

2020-10-27 10:37:40

機(jī)器人

2024-04-09 13:21:00

AI開源

2023-10-12 14:40:10

AI模型

2025-01-10 14:15:02

2024-12-19 07:10:00

2024-07-02 09:20:59

2024-11-01 07:30:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號