自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

重磅!騰訊宣布混元文生圖大模型開(kāi)源: Sora 同架構(gòu),中英文原生DiT,可免費(fèi)商用

原創(chuàng)
人工智能 開(kāi)源 新聞
騰訊開(kāi)源中英文原生DiT模型,免費(fèi)可商用!

5月14日,騰訊宣布旗下的混元文生圖大模型全面升級(jí)并對(duì)外開(kāi)源,目前已在 Hugging Face 平臺(tái)及 Github 上發(fā)布,包含模型權(quán)重、推理代碼、模型算法等完整模型,可供企業(yè)與個(gè)人開(kāi)發(fā)者免費(fèi)商用。

這是業(yè)內(nèi)首個(gè)中文原生的DiT架構(gòu)文生圖開(kāi)源模型,支持中英文雙語(yǔ)輸入及理解,參數(shù)量15億。升級(jí)后的混元文生圖大模型采用了與 sora 一致的DiT架構(gòu),不僅可支持文生圖,也可作為視頻等多模態(tài)視覺(jué)生成的基礎(chǔ)。

評(píng)測(cè)數(shù)據(jù)顯示,最新的騰訊混元文生圖模型效果遠(yuǎn)超開(kāi)源的 Stable Diffusion 模型,是目前效果最好的開(kāi)源文生圖模型;整體能力屬于國(guó)際領(lǐng)先水平。

自研新一代文生圖模型

大模型的優(yōu)異表現(xiàn),離不開(kāi)領(lǐng)先的技術(shù)架構(gòu)。升級(jí)后的騰訊混元文生圖大模型采用了全新的DiT架構(gòu)(DiT,即Diffusion With Transformer),這也是Sora和 Stable Diffusion 3 的同款架構(gòu)和關(guān)鍵技術(shù),是一種基于Transformer架構(gòu)的擴(kuò)散模型。

過(guò)去,視覺(jué)生成擴(kuò)散模型主要基于 U-Net 架構(gòu),但隨著參數(shù)量的提升,基于 Transformer 架構(gòu)的擴(kuò)散模型展現(xiàn)出了更好的擴(kuò)展性,有助于進(jìn)一步提升模型的生成質(zhì)量及效率。騰訊混元是業(yè)界最早探索并應(yīng)用大語(yǔ)言模型結(jié)合 DiT 結(jié)構(gòu)的文生圖模型之一。從 2023 年 7 月起,騰訊混元文生圖團(tuán)隊(duì)就明確了基于DiT架構(gòu)的模型方向,并啟動(dòng)了新一代模型研發(fā)。今年初,混元文生圖大模型已全面升級(jí)為DiT架構(gòu)。

在DiT架構(gòu)之上,騰訊混元團(tuán)隊(duì)在算法層面優(yōu)化了模型的長(zhǎng)文本理解能力,能夠支持最多 256 字符的內(nèi)容輸入,達(dá)到行業(yè)領(lǐng)先水平。同時(shí),在算法層面創(chuàng)新實(shí)現(xiàn)了多輪生圖和對(duì)話能力,可實(shí)現(xiàn)在一張初始生成圖片的基礎(chǔ)上,通過(guò)自然語(yǔ)言描述進(jìn)行調(diào)整,從而達(dá)到更滿意的效果。

中文原生也是騰訊混元文生圖大模型的一大亮點(diǎn),此前,像 Stable Diffusion 等主流開(kāi)源模型核心數(shù)據(jù)集以英文為主,對(duì)中國(guó)的語(yǔ)言、美食、文化、習(xí)俗都理解不夠?;煸纳鷪D是首個(gè)中文原生的DiT模型,具備中英文雙語(yǔ)理解及生成能力,在古詩(shī)詞、俚語(yǔ)、傳統(tǒng)建筑、中華美食等中國(guó)元素的生成上表現(xiàn)出色。

評(píng)測(cè)結(jié)果顯示,新一代騰訊混元文生圖大模型視覺(jué)生成整體效果,相比前代提升超過(guò) 20%,在語(yǔ)義理解、畫(huà)面質(zhì)感與真實(shí)性方面全面提升,在多輪對(duì)話、多主體、中國(guó)元素、真實(shí)人像生成等場(chǎng)景下效果提升顯著。

為了全面比較HunyuanDiT與其他模型的生成能力,研究團(tuán)隊(duì)構(gòu)建了4個(gè)維度的測(cè)試集,包括文本圖像一致性、排除AI偽影、主題清晰度、審美。超過(guò)50名專業(yè)評(píng)估人員進(jìn)行評(píng)估。

目前Hunyuan-DiT已經(jīng)在HuggingFace和Github上開(kāi)源,感想趣的朋友可親手體驗(yàn)一番。


全面開(kāi)源,惠及行業(yè)

騰訊混元文生圖能力,已經(jīng)廣泛被用于素材創(chuàng)作、商品合成、游戲出圖等多項(xiàng)業(yè)務(wù)及場(chǎng)景中。今年初,騰訊廣告基于騰訊混元大模型,發(fā)布了一站式 AI 廣告創(chuàng)意平臺(tái)騰訊廣告妙思,可為廣告主提供文生圖、圖生圖、商品背景合成等多場(chǎng)景創(chuàng)意工具,有效提高了廣告生產(chǎn)及投放效率?!堆胍曅侣劇贰缎氯A日?qǐng)?bào)》《深圳特區(qū)報(bào)》《南方都市報(bào)》《羊城晚報(bào)》等20余家媒體,也已經(jīng)將騰訊混元文生圖用于新聞內(nèi)容生產(chǎn)。

騰訊文生圖負(fù)責(zé)人蘆清林表示:“騰訊混元文生圖的研發(fā)思路就是實(shí)用,堅(jiān)持從實(shí)踐中來(lái),到實(shí)踐中去。此次把最新一代模型完整開(kāi)源出來(lái),是希望與行業(yè)共享騰訊在文生圖領(lǐng)域的實(shí)踐經(jīng)驗(yàn)和研究成果,豐富中文文生圖開(kāi)源生態(tài),共建下一代視覺(jué)生成開(kāi)源生態(tài),推動(dòng)大模型行業(yè)加速發(fā)展?!?/span>

基于騰訊此次開(kāi)源的文生圖模型,開(kāi)發(fā)者及企業(yè)無(wú)需重頭訓(xùn)練,即可直接用于推理,并可基于混元文生圖打造專屬的AI繪畫(huà)應(yīng)用及服務(wù),能夠節(jié)約大量人力及算力。透明公開(kāi)的算法,也讓模型的安全性和可靠性得到保障。

同時(shí),基于開(kāi)放、前沿的混元文生圖基礎(chǔ)模型,也有利于在以 Stable Diffusion 等為主的英文開(kāi)源社區(qū)之外,豐富以中文為主的文生圖開(kāi)源生態(tài),形成更多樣的原生插件,推動(dòng)中文文生圖技術(shù)研發(fā)和應(yīng)用。

據(jù)了解,騰訊在開(kāi)源上一直持開(kāi)放態(tài)度,已開(kāi)源了超 170 個(gè)優(yōu)質(zhì)項(xiàng)目,均來(lái)源于騰訊真實(shí)業(yè)務(wù)場(chǎng)景,覆蓋微信、騰訊云、騰訊游戲、騰訊AI、騰訊安全等核心業(yè)務(wù)板塊,目前在Github上已累計(jì)獲得超 47 萬(wàn)開(kāi)發(fā)者關(guān)注及點(diǎn)贊。

責(zé)任編輯:薛彥澤 來(lái)源: 51CTO
相關(guān)推薦

2024-05-15 17:30:51

開(kāi)源模型

2024-06-21 11:44:17

2025-03-11 10:00:00

圖片模型數(shù)據(jù)

2023-10-26 15:38:03

混元大模型騰訊

2024-11-06 09:47:00

2024-05-22 18:10:38

2023-07-25 13:52:54

開(kāi)源模型

2023-07-28 15:39:20

TransGPT人工智能開(kāi)源

2024-06-06 14:27:21

2021-10-15 15:26:10

AI 數(shù)據(jù)人工智能

2023-07-19 12:09:36

大模型Llama 2扎克伯格

2023-09-07 11:48:36

騰訊混元大模型

2023-08-09 10:08:00

模型AI

2023-09-12 07:02:19

騰訊混元大模型

2023-08-07 13:40:39

AI模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)