自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

騰訊混元宣布大語言模型和3D模型正式開源 ?

人工智能
11月5日,騰訊混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“ Hunyuan3D-1.0”正式開源,支持企業(yè)及開發(fā)者精調(diào)、部署等不同場景的使用需求,可在HuggingFace、Github等技術(shù)社區(qū)直接下載,免費可商用。

騰訊混元大模型正在加快開源步伐。

11月5日,騰訊混元宣布最新的MoE模型“混元Large“以及混元3D生成大模型“ Hunyuan3D-1.0”正式開源,支持企業(yè)及開發(fā)者精調(diào)、部署等不同場景的使用需求,可在HuggingFace、Github等技術(shù)社區(qū)直接下載,免費可商用。

本次開源是騰訊混元繼文生圖模型后持續(xù)開放的一大舉措。其中,騰訊混元Large是目前開源領(lǐng)域參數(shù)規(guī)模最大、效果最好的MoE模型,而騰訊混元3D生成大模型則是業(yè)界首個同時支持文字、圖像生成3D的開源大模型。兩個模型均屬騰訊自研,在架構(gòu)、算法、數(shù)據(jù)等方面有獨特創(chuàng)新,填補了行業(yè)空白。目前,兩個模型均已經(jīng)在騰訊業(yè)務場景中落地應用,經(jīng)過實踐的檢驗,是面向?qū)嵱脠鼍暗膽眉壌竽P汀?/span>

當天,騰訊云TI平臺和高性能應用服務HAI也開放接入這兩個模型,為模型的精調(diào)、API調(diào)用及私有化部署提供一站式服務。


堅持MoE架構(gòu),模型持續(xù)升級開放

騰訊混元Large模型總參數(shù)量 389B,激活參數(shù)量 52B ,上下文長度高達256K,公開測評結(jié)果顯示,騰訊混元Large 在CMMLU、MMLU、CEval、MATH等多學科綜合評測集以及中英文NLP任務、代碼和數(shù)學等9大維度全面領(lǐng)先,超過Llama3.1、Mixtral等一流的開源大模型。

騰訊混元Large 在各類測試集上得分領(lǐng)先現(xiàn)有主流開源模型


MoE(Mixture of Experts),即混合專家模型,是目前國內(nèi)外主流的大模型結(jié)構(gòu)。2024年年初,騰訊混元就宣布在國內(nèi)率先采用MoE架構(gòu)模型,總體性能比上一代Dense模型提升50%。此后,騰訊混元推出基于 MoE 架構(gòu)的多模態(tài)理解大模型以及基礎(chǔ)模型"混元turbo",在性能、效果、速度等多個領(lǐng)域表現(xiàn)優(yōu)越,第三方測評居國內(nèi)大模型第一。

在模型結(jié)構(gòu)和訓練策略方面,騰訊混元Large全面探索了MoE ScalingLaw,進行了MoE共享專家路由、回收路由等策略上的創(chuàng)新,并引入了專家特化的學習率適配訓練策略,有效提升不同專家利用率和穩(wěn)定性,帶來模型效果的提升。

騰訊混元Large在Post-Train方面做了大量創(chuàng)新優(yōu)化。面對SFT通用領(lǐng)域繁多,數(shù)學、代碼高質(zhì)量指令數(shù)據(jù)獲取困難,業(yè)界廣泛采用的離線DPO,強化策略效果上限不高,泛化性弱等挑戰(zhàn),騰訊混元Large模型分門別類提升數(shù)學、邏輯推理、代碼等能力,另外在一階段離線DPO的基礎(chǔ)上引入了二階段在線強化策略。

數(shù)據(jù)方面,騰訊混元Large構(gòu)建了覆蓋數(shù)十個類目,高質(zhì)量、高多樣性、大量級的中英文合成數(shù)據(jù),顯著提升模型效果,其中數(shù)學和代碼效果提升超過10%。 針對長文領(lǐng)域測評數(shù)據(jù)集缺乏,方法不夠客觀等問題,騰訊混元Large還基于公開數(shù)據(jù),構(gòu)建了一套完整覆蓋長文閱讀理解、多文檔摘要總結(jié)、長文邏輯推理等領(lǐng)域任務的數(shù)據(jù)集企鵝卷軸(PenguinScrolls),并將對外開放,助力大模型長文方向的技術(shù)研究。

騰訊混元Large模型專項提升的長文能力已經(jīng)應用到騰訊AI助手騰訊元寶上,最大支持256K上下文,相當于一本《三國演義》的長度,可以一次性處理上傳最多10個文檔,并能夠一次性解析多個微信公眾號鏈接、網(wǎng)址,讓騰訊元寶具備獨有的深度解析能力。

工程平臺方面,騰訊混元Large模型由騰訊自研,其訓練和推理均基于騰訊Angel機器學習平臺。其中,針對 MoE 模型通信效率問題,Angel訓練加速框架AngelPTM實現(xiàn)了多項技術(shù)優(yōu)化,性能是主流開源框架DeepSpeed的2.6倍;針對模型推理加速,騰訊Angel機器學習平臺和騰訊云智能聯(lián)合研發(fā) AngelHCF-vLLM框架,在最大限度保障精度的條件下,可節(jié)省50%以上顯存,相比于業(yè)界主流的框架BF16吞吐提升1倍以上。

騰訊混元Large 模型已同步上架騰訊云 TI平臺。TI 平臺具備實戰(zhàn)型大模型精調(diào)工具鏈,提供靈活的大模型訓練數(shù)據(jù)標注能力和開源的數(shù)據(jù)構(gòu)建Pipeline,內(nèi)置 Angel訓練和推理加速能力,支持一鍵啟動混元Large精調(diào),幫助用戶訓練出真正滿足業(yè)務需求的專屬大模型,提升研發(fā)效率。

同時,騰訊混元大模型 PaaS平臺開放支持包含混元 Large 模型在內(nèi)的十余種混元API 服務調(diào)用,可滿足文生文、圖生文、文生圖等不同模態(tài)以及角色扮演、FunctionCall、代碼等不同專項的模型需求。


業(yè)界首個同時支持文字、圖像生成3D的開源大模型

騰訊混元3D生成大模型首批開源模型包含輕量版和標準版,輕量版僅需10s即可生成高質(zhì)量3D資產(chǎn),目前已在技術(shù)社區(qū)公開發(fā)布,包含模型權(quán)重、推理代碼、模型算法等完整模型,可供開發(fā)者、研究者等各類用戶免費使用。

騰訊混元Hunyuan3D-1.0 模型也已上架到騰訊云HAI,通過HAI上更高性價比的GPU算力、模型一鍵部署能力和可視化圖形界面WebUI,有效降低模型開放和部署門檻。


此次騰訊混元開源的3D生成大模型 Hunyuan3D-1.0 ,解決了現(xiàn)有的3D生成模型在生成速度和泛化能力上存在不足的問題,可以幫助 3D 創(chuàng)作者和藝術(shù)家自動化生產(chǎn) 3D 資產(chǎn)。該模型具有強大泛化能力和可控性,可重建各類尺度物體,大到建筑,小到工具花草。經(jīng)過定性、定量多個維度的評估,騰訊混元3D生成大模型的生成質(zhì)量已達到開源模型的先進水平。

在兩個公開的3D數(shù)據(jù)集 GSO 與 OmniObject3D 上,騰訊混元Hunyuan3D-1.0 效果優(yōu)于主流開源模型,整體能力屬于國際領(lǐng)先水平。從定性角度評估,Hunyuan3D-1.0 與行業(yè)領(lǐng)先的開源模型的 3D 生成效果表現(xiàn)對比也顯示出較高水平,包括幾何細節(jié)、紋理細節(jié)、紋理-幾何一致性、3D合理性、指令遵循等評價維度。

應用上,3D生成相關(guān)技術(shù)已經(jīng)開始應用于UGC 3D創(chuàng)作、商品素材合成、游戲3D資產(chǎn)生成等騰訊業(yè)務中。其中,騰訊地圖基于騰訊混元3D大模型,發(fā)布了自定義3D導航車標功能,支持用戶創(chuàng)作個性化的 3D 導航車標,相比傳統(tǒng)的3D車標重建方案,速度提升了91%。此前,騰訊元寶 APP 也上線了”3D 角色夢工廠“玩法,支持個性化的 UGC 3D 人物生成。

隨著自研大模型技術(shù)強大的和應用實踐經(jīng)驗的豐富,開源已經(jīng)成為騰訊混元大模型的一個戰(zhàn)略選擇,未來,騰訊混元也將繼續(xù)帶來更多模態(tài)、更多尺寸的開源模型,將更多經(jīng)過騰訊業(yè)務場景打磨和檢驗的模型開源,促進大模型技術(shù)進步和行業(yè)生態(tài)繁榮。


附:騰訊混元Large訪問地址

官網(wǎng)地址:https://llm.hunyuan.tencent.com/

Github地址:

https://github.com/Tencent/Tencent-Hunyuan-Large

Hugging Face 地址:

https://huggingface.co/tencent/Tencent-Hunyuan-Large


附:騰訊3D模型訪問地址

官網(wǎng)地址:https://3d.hunyuan.tencent.com/

Github 地址:https://github.com/Tencent/Hunyuan3D-1

Hugging Face 模型地址:https://huggingface.co/tencent/Hunyuan3D-1

責任編輯:劉睿暄
相關(guān)推薦

2023-09-07 11:48:36

騰訊混元大模型

2024-05-22 18:10:38

2023-09-12 07:02:19

騰訊混元大模型

2024-06-21 11:44:17

2024-12-11 08:28:15

2024-05-14 16:58:05

騰訊混元大模型文生圖

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2023-10-26 15:38:03

混元大模型騰訊

2024-05-15 17:30:51

開源模型

2022-04-29 16:47:57

AI騰訊

2024-09-05 16:37:37

2024-05-17 14:06:09

2020-08-26 10:37:21

阿里3D

2024-12-10 09:40:00

AI3D模型
點贊
收藏

51CTO技術(shù)棧公眾號