自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

騰訊混元發(fā)布開(kāi)源加速庫(kù),生圖時(shí)間縮短75%

人工智能 新聞
混元文生圖開(kāi)源模型接入ComfyUI與Diffusers庫(kù),使用門(mén)檻大幅降低

6月6日,騰訊發(fā)布針對(duì)騰訊混元文生圖開(kāi)源大模型(以下簡(jiǎn)稱(chēng)為混元DiT模型)的加速庫(kù),讓推理效率大幅提升,生圖時(shí)間縮短75%。

混元DiT模型的使用門(mén)檻也大幅降低。用戶(hù)可以基于ComfyUI的圖形化界面,使用騰訊混元文生圖模型能力。同時(shí),混元DiT模型已經(jīng)部署至Hugging Face Diffusers通用模型庫(kù)中,用戶(hù)僅用三行代碼即可調(diào)用混元DiT模型,無(wú)需下載原始代碼庫(kù)。

此前,騰訊宣布旗下的混元文生圖大模型全面升級(jí)并對(duì)外開(kāi)源,可供企業(yè)與個(gè)人開(kāi)發(fā)者免費(fèi)商用。這是業(yè)內(nèi)首個(gè)中文原生的DiT架構(gòu)文生圖開(kāi)源模型,支持中英文雙語(yǔ)輸入及理解;采用了與 sora 一致的DiT架構(gòu),不僅可支持文生圖,也可作為視頻等多模態(tài)視覺(jué)生成的基礎(chǔ)。

騰訊混元DiT模型開(kāi)源之后,受到了眾多社區(qū)開(kāi)發(fā)者的認(rèn)可。開(kāi)源不到一個(gè)月,項(xiàng)目Github Star數(shù)就超過(guò)2100,位于開(kāi)源社區(qū)熱門(mén)DiT模型前列

混元DiT Github頁(yè)面

為了提升開(kāi)發(fā)者使用體驗(yàn),騰訊混元官方上線了專(zhuān)屬的加速庫(kù),讓推理時(shí)間縮短75%,提高大模型運(yùn)行效率。開(kāi)發(fā)者通過(guò)Hugging Face即可下載該推理加速工具。

項(xiàng)目組通過(guò)知識(shí)蒸餾和TensorRT高性能推理框架,實(shí)現(xiàn)了DiT模型的采樣步數(shù)壓縮與高效推理部署。蒸餾主要指降低擴(kuò)散模型迭代的步數(shù)實(shí)現(xiàn)加速。模型整體結(jié)構(gòu)和參數(shù)量不變,用戶(hù)在無(wú)需任何額外的操作和設(shè)備要求下使用蒸餾權(quán)重,即可降低50%迭代步數(shù),實(shí)現(xiàn)耗時(shí)減半。TensorRT推理加速方案通過(guò)工程優(yōu)化,可以進(jìn)一步降低耗時(shí),并且和模型權(quán)重解耦。同時(shí)使用兩者進(jìn)行推理部署,可將推理時(shí)間縮短75%。

官方還分享了兩個(gè)降低用戶(hù)使用門(mén)檻的最新消息:經(jīng)過(guò)與社區(qū)的共同努力,用戶(hù)可以基于ComfyUI的圖形化界面使用騰訊混元文生圖模型能力。同時(shí),通過(guò)與Hugging Face團(tuán)隊(duì)合作,混元DiT模型已經(jīng)部署到Hugging Face官方模型庫(kù)Diffusers中,并編寫(xiě)了適配該模型庫(kù)的調(diào)用和生成代碼,用戶(hù)可以直接通過(guò)該途徑調(diào)用混元DiT模型,大大簡(jiǎn)化了用戶(hù)使用的成本。

ComfyUI是一款文生圖領(lǐng)域的WebUI界面設(shè)計(jì),它將文生圖領(lǐng)域的擴(kuò)散算法模塊化與圖形化,提升了生成效率與資源利用率,也大幅降低了開(kāi)發(fā)者的使用門(mén)檻。用戶(hù)可以通過(guò)圖像化工作流使用混元DiT文生圖模型,實(shí)現(xiàn)與官方模型一樣的效果。

混元DiT文生圖模型的ComfyUI使用界面

此外,圍繞ComfyUI的使用生態(tài),還衍生出強(qiáng)大的開(kāi)源社區(qū)。混元DiT對(duì)ComfyUI的支持,也能讓社區(qū)的成員體驗(yàn)基于最新DiT架構(gòu)的文生圖模型。

作為知名的AI開(kāi)源社區(qū),Hugging Face的Diffusers是目前調(diào)用各種主流文生圖大模型的通用庫(kù),已經(jīng)成為當(dāng)今文生圖大模型使用的社區(qū)標(biāo)準(zhǔn)。

將混元DiT模型適配進(jìn)Hugging Face Diffusers,可以大幅提升模型的易用性和用戶(hù)基礎(chǔ)。用戶(hù)無(wú)需將原始代碼庫(kù)下載與部署到自身環(huán)境,安裝了Diffusers庫(kù)的開(kāi)發(fā)者,僅需要運(yùn)行幾行代碼,即可調(diào)用混元DiT模型,配置與調(diào)用都十分方便。同時(shí),Hugging Face與騰訊混元團(tuán)隊(duì)共同優(yōu)化算法框架,加快了圖片的生成速度。

此舉也相當(dāng)于為所有后續(xù)基于混元DiT的使用和開(kāi)發(fā)提供了底層支持,覆蓋各種需要調(diào)用混元DiT的任何場(chǎng)景,包括上述的ComfyUI方式。同時(shí)對(duì)開(kāi)發(fā)者而言,之前配置好的基于Diffusers的工作流和插件可以在少量修改的情況下直接用于混元DiT。

騰訊文生圖負(fù)責(zé)人蘆清林表示:“騰訊混元文生圖模型開(kāi)源之后得到了眾多開(kāi)發(fā)者的支持和反饋,我們十分高興,也同時(shí)在針對(duì)開(kāi)發(fā)者的反饋與社區(qū)一起完善和優(yōu)化基于混元DiT的開(kāi)源生態(tài),讓更多開(kāi)發(fā)者能更便利地享受到最新的研究成果。也歡迎大家跟我們一起共建下一代視覺(jué)生成開(kāi)源生態(tài),推動(dòng)大模型行業(yè)加速發(fā)展。”

附騰訊混元文生圖開(kāi)源大模型(混元DiT模型)項(xiàng)目鏈接

官網(wǎng):https://dit.hunyuan.tencent.com/

代碼:https://github.com/Tencent/HunyuanDiT

模型:https://huggingface.co/Tencent-Hunyuan/HunyuanDiT

論文:https://tencent.github.io/HunyuanDiT/asset/Hunyuan_DiT_Tech_Report_05140553.pdf


責(zé)任編輯:張潔
相關(guān)推薦

2024-06-21 11:44:17

2024-05-22 18:10:38

2024-05-15 17:30:51

開(kāi)源模型

2023-10-26 15:38:03

混元大模型騰訊

2024-11-06 09:47:00

2024-09-05 16:37:37

2025-03-19 14:24:32

2024-05-14 16:58:05

騰訊混元大模型文生圖

2024-03-18 09:38:42

騰訊清華模型

2023-09-07 11:48:36

騰訊混元大模型

2023-09-06 18:25:32

2025-03-07 09:02:00

生成AI視頻

2025-03-11 09:42:00

2021-03-10 18:33:34

騰訊云原生開(kāi)源

2022-04-29 16:47:57

AI騰訊
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)