自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

國內(nèi)最大開源模型發(fā)布,無條件免費商用!參數(shù)650億,基于2.6萬億token訓(xùn)練

人工智能 新聞
而業(yè)界普遍共識是達(dá)到500到600億參數(shù)門檻,大模型才能“智能涌現(xiàn)” ,在多任務(wù)中展現(xiàn)強大性能。

國內(nèi)規(guī)模最大的開源大模型來了:

參數(shù)650億、基于2.6-3.2萬億token訓(xùn)練。

排名僅次于“獵鷹”和“羊駝”,性能媲美GPT3.5,現(xiàn)在就能無條件免費商用

圖片

它就是來自深圳元象公司的XVERSE。

根據(jù)算力、資源限制和具體任務(wù)需求的不同,我們能對它進(jìn)行任何自由修改或蒸餾。

除了規(guī)模大,它還具有16k上下文,支持40多種語言,并還有7B、13B兩個版本可選。

具體什么來頭?

國內(nèi)規(guī)模最大的可商用大模型來了

研究表明,參數(shù)量越高,高質(zhì)量訓(xùn)練數(shù)據(jù)越多,大模型性能才能不斷提升。

而業(yè)界普遍共識是達(dá)到500到600億參數(shù)門檻,大模型才能“智能涌現(xiàn)” ,在多任務(wù)中展現(xiàn)強大性能。

但訓(xùn)練此量級模型成本高昂,技術(shù)要求較高,目前主要為閉源付費提供。

在國外開源生態(tài)中,Llama2-70B和Falcon-180B等標(biāo)桿模型為“有條件”開源,設(shè)置了月活躍用戶數(shù)或收入等商用上限,并因缺乏訓(xùn)練數(shù)據(jù)在中文能力上有明顯短板。

在此,為推動國產(chǎn)大模型開源生態(tài)與產(chǎn)業(yè)應(yīng)用發(fā)展,元象XVERSE公司宣布開源650億參數(shù)高性能通用大模型XVERSE-65B,無條件免費商用。13B模型則全面升級,提高“小”模型能力上限。

元象XVERSE創(chuàng)始人姚星表示:“面對研發(fā)時間緊、算力持續(xù)短缺等挑戰(zhàn),團(tuán)隊在三個月內(nèi)研發(fā)出多款高性能7B、13B模型,并最早為社區(qū)獻(xiàn)上一個‘大有可為’的65B模型?!?/p>

XVERSE-65B底座模型在2.6萬億Tokens的高質(zhì)量數(shù)據(jù)上從頭訓(xùn)練,上下文窗口擴展至16K,支持中、英、俄、法等40多種語言。

顯著提升了三方面能力

一、理解、生成、推理和記憶等基礎(chǔ)能力,到模型的多樣性、創(chuàng)造性和精度表現(xiàn),從優(yōu)異到強大;

二、擴展了工具調(diào)用、代碼解釋、反思修正等能力,為構(gòu)建智能體(AI Agent)奠定技術(shù)基礎(chǔ),提高模型實用性;

三、顯著緩解7B、13B中常見且可能很嚴(yán)重的幻覺問題,減少大模型“胡說八道”,提高準(zhǔn)確性和專業(yè)度。

元象大模型系列均為全自研,涵蓋多項關(guān)鍵技術(shù)與研發(fā)創(chuàng)新:

1、復(fù)雜分布式系統(tǒng)設(shè)計:

借鑒團(tuán)隊研發(fā)騰訊圍棋AI“絕藝”、王者榮耀AI“絕悟”等大系統(tǒng)上的豐富經(jīng)驗,自研高效算子、顯存優(yōu)化、并行調(diào)度策略、數(shù)據(jù)-計算-通信重疊、平臺與框架協(xié)同等關(guān)鍵技術(shù),打造高效穩(wěn)定的訓(xùn)練系統(tǒng), 千卡集群峰值算力利用率達(dá)58.5%,位居業(yè)界前列。

2、全面提升性能:

65B訓(xùn)練中采用 FlashAttention2加速計算, 3D并行基礎(chǔ)上采用虛擬流水線(virtual pipeline)技術(shù),降低較長流水線產(chǎn)生過高氣泡率,提升計算推理效率;上下文窗口長度從8K逐步提升到16K,使其不僅能出色完成復(fù)雜任務(wù),包括長文理解、長文生成和超長對話,還拓展了工具調(diào)用、代碼解釋及反思修正能力,能更好構(gòu)建智能體(AI Agent)。

3、極致提升訓(xùn)練穩(wěn)定性:

因計算量龐大,通信擁塞、芯片過熱或計算節(jié)點故障成為65B訓(xùn)練常態(tài),初期出現(xiàn)過一周最高八次故障的情況。

通過集群基礎(chǔ)設(shè)施運營、資源調(diào)度、訓(xùn)練框架和調(diào)度平臺協(xié)同等持續(xù)優(yōu)化,元象打造出高穩(wěn)定、低中斷、強容錯的訓(xùn)練系統(tǒng),將每周有效訓(xùn)練率提升至98.6%。

此外,在接近1.6萬億Tokens的模型訓(xùn)練中期,損失函數(shù)產(chǎn)生了NaN值,可能導(dǎo)致訓(xùn)練中斷。

通常情況下,業(yè)界一般會在分析后刪除與之相關(guān)的數(shù)據(jù)區(qū)間。

而團(tuán)隊根據(jù)經(jīng)驗判定這是模型自然演化,選擇不刪除數(shù)據(jù),直接跳過相關(guān)參數(shù)更新,最終 NaN值 問題解決。

后期對參數(shù)值、激活值、梯度值等中間狀態(tài)的進(jìn)一步分析表明,該問題可能與模型最后一層transformer block激活值的最大值變化有關(guān),并會隨最大值的逐漸降低而自行解決。

圖片

性能媲美GPT3.5

為確保業(yè)界能對元象大模型性能有全面、客觀、長期認(rèn)知,研究人員參考了一系列權(quán)威學(xué)術(shù)測評,制定了涵蓋問答、理解、知識、推理、數(shù)學(xué)、代碼等六個維度的11項主流權(quán)威測評標(biāo)準(zhǔn),將持續(xù)使用并迭代。

XVERSE-65B在國內(nèi)尚無同量級模型可對比,在與國外標(biāo)桿對比測評中,部分指標(biāo)超越、綜合性能媲美GPT3.5;全面超越開源標(biāo)桿Llama2-70B 和Falcon-180B;與GPT4仍有差距。

圖片

全面升級的XVERSE-13B-2,比同尺寸模型增加大量高質(zhì)量數(shù)據(jù),訓(xùn)練數(shù)據(jù)高達(dá)3.2萬億, 極大提升了“小”模型的能力上限。

它文理兼修,保持了文科優(yōu)勢,問答提升18%,理科長足進(jìn)步, 代碼提升149%、數(shù)學(xué)提升198%,在測評中全面超越了Llama2、Baichuan2等國內(nèi)外開源標(biāo)桿。

圖片

現(xiàn)在,元象大模型可在Github、Hugging Face、魔搭ModelScope等多平臺搜索“XVERSE”下載,簡單登記后即可無條件免費商用,能滿足中小企業(yè)、科研機構(gòu)和個人開發(fā)者絕大部分的應(yīng)用與迭代需求。

元象同時提供模型訓(xùn)練、推理、部署、精調(diào)等全方位技術(shù)服務(wù),賦能文娛、金融、醫(yī)療等各行各業(yè),幫助在智能客服、創(chuàng)意寫作、精準(zhǔn)推薦等多場景打造行業(yè)領(lǐng)先的用戶體驗。

2023年10月, 騰訊音樂率先宣布與元象大模型建立戰(zhàn)略合作 ,共同推出lyraXVERSE加速大模型、全面升級其音樂助手“AI小琴”,未來還將持續(xù)探索AI與3D前沿技術(shù)。

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-07-18 15:05:00

開源大模型

2023-07-28 15:39:20

TransGPT人工智能開源

2024-04-01 12:43:40

模型訓(xùn)練開源

2023-06-02 13:55:57

開源AI

2023-05-29 13:53:46

開源模型

2023-07-25 13:52:54

開源模型

2023-08-03 19:11:45

2020-02-24 10:51:25

微軟開源Windows

2024-04-25 13:58:51

開源模型Vicuna

2023-05-19 10:26:01

谷歌模型

2024-03-18 15:00:48

Grok現(xiàn)已開源Grok-1混合專家模型

2024-04-09 13:21:00

AI開源

2024-03-18 14:17:06

大模型開源人工智能

2025-02-18 13:30:00

2020-11-18 10:29:07

模型人工智能開源

2025-04-29 08:05:44

2023-09-07 13:25:00

AI模型

2024-07-29 08:52:00

模型數(shù)據(jù)
點贊
收藏

51CTO技術(shù)棧公眾號