自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

騰訊版Sora發(fā)布即開源!130億參數(shù),模型權重、推理代碼全開放

人工智能 新聞 開源
130億參數(shù),成為目前參數(shù)量最大的開源視頻生成模型。模型權重、推理代碼、模型算法等全部上傳GitHub與Hugging Face,一點沒藏著。

130億參數(shù),成為目前參數(shù)量最大的開源視頻生成模型。模型權重、推理代碼、模型算法等全部上傳GitHub與Hugging Face,一點沒藏著。

圖片

實際效果如何呢?

不瞞你們說,我真的看見一只大熊貓,在跳廣場舞、吃火鍋、打麻將,請看VCR:

圖片圖片圖片

到底是來自四川的貓!

目前該模型已上線騰訊元寶APP,用戶可在AI應用中的“AI視頻”板塊申請試用。

API同步開放測試,開發(fā)者可通過騰訊云接入。

圖片

騰訊混元視頻生成主打四大特點:

  • 超寫實畫質(zhì),模型生成的視頻內(nèi)容具備高清質(zhì)感、真實感,可用于工業(yè)級商業(yè)場景例如廣告宣傳、創(chuàng)意視頻生成等商業(yè)應用。
  • 高語義一致,用戶可以進行細致的刻畫,例如生成主體的細節(jié),人物概念的組合等。模型可以準確的表達出文本的內(nèi)容。
  • 運動畫面流暢,可生成大幅度的合理運動,運動鏡頭流暢、符合物理規(guī)律,不易變形。
  • 原生鏡頭轉(zhuǎn)換模型原生具備自動生成多視角同主體的鏡頭切換畫面,增強畫面敘事感。

那么實際表現(xiàn)能否符合描述?下面結合實例一一拆解。

實測騰訊首個文生視頻模型

首先是沖浪題材,涉及到畫面大幅度運動,水的物理模擬等難點。

提示詞中還特別指定了攝像頭的運動,騰訊混元表現(xiàn)出流暢運鏡的能力,只是在“最后定格在…”這個要求上稍顯不足。

提示詞:超大海浪,沖浪者在浪花上起跳,完成空中轉(zhuǎn)體。攝影機從海浪內(nèi)部穿越而出,捕捉陽光透過海水的瞬間。水花在空中形成完美弧線,沖浪板劃過水面留下軌跡。最后定格在沖浪者穿越水簾的完美瞬間。

圖片

鏡子題材,考驗模型對光影的理解,以及鏡子內(nèi)外主體運動是否能保持一致。

提示詞中的白床單元素又加大了難度,涉及到的布料模擬,也符合物理規(guī)律。

不過人們想象中的幽靈一般沒有腳,AI似乎沒學到,又或者是跳舞涉及大量腿部動作,產(chǎn)生了沖突。

穿著白床單的幽靈面對著鏡子。鏡子中可以看到幽靈的倒影。幽靈位于布滿灰塵的閣樓中,閣樓里有老舊的橫梁和被布料遮蓋的家具。閣樓的場景映照在鏡子中。幽靈在鏡子前跳舞。電影氛圍,電影打光。

圖片


接下來是騰訊混元視頻生成主推的功能之一,在畫面主角保持不變的情況下自動切鏡頭,據(jù)了解是業(yè)界大部分模型所不具備的能力。

一位中國美女穿著漢服,頭發(fā)飄揚,背景是倫敦,然后鏡頭切換到特寫鏡頭。

再來一個綜合型的復雜提示詞,對主角外貌、動作、環(huán)境都有細致描述,畫面中還出現(xiàn)其他人物,騰訊混元表現(xiàn)也不錯。

特寫鏡頭拍攝的是一位60多歲、留著胡須的灰發(fā)男子,他坐在巴黎的一家咖啡館里,沉思著宇宙的歷史,他的眼睛聚焦在畫外走動的人們身上,而他自己則基本一動不動地坐著,他身穿羊毛大衣西裝外套,內(nèi)襯系扣襯衫,戴著棕色貝雷帽和眼鏡,看上去很有教授風范,片尾他露出一絲微妙的閉嘴微笑,仿佛找到了生命之謎的答案,燈光非常具有電影感,金色的燈光,背景是巴黎的街道和城市,景深,35毫米電影膠片。

圖片

最后附上來自官方的寫prompt小tips:

  • 用法1:提示詞=主體+場景+運動
  • 用法2:提示詞=主體(主體描述)+場景(場景描述)+運動(運動描述)+(鏡頭語言)+(氛圍描述)+(風格表達)
  • 用法3:提示詞=主體+場景+運動+(風格表達)+(氛圍描述)+(運鏡方式)+(光線)+(景別)
  • 多鏡頭生成:提示詞=[場景1]+鏡頭切換到[場景2]
  • 兩個動作生成:提示詞=[主體描述]+[動作描述]+[然后、過了一會等連接詞]+[動作描述2]

怎么樣,你學會了嗎?

更多騰訊混元生成的視頻,以及與Sora同提示詞PK,還可以看看量子位在內(nèi)測階段的嘗試。

最大的開源視頻生成模型。

看完效果,再看看技術層面有哪些亮點。

首先從官方評估結果看,混元視頻生成模型在文本視頻一致性、運動質(zhì)量和畫面質(zhì)量多個維度效果領先。

圖片

然后從目前公開資料看,騰訊混元視頻生成模型還有三個亮點。

1、文本編碼器部分,已經(jīng)適配多模態(tài)大模型

當下行業(yè)中多數(shù)視覺生成模型的文本編碼器,適配的主要是上一代語言模型,如OpenAI的CLIP和谷歌T5及各種變種。

騰訊在開源圖像生成模型Hunyuan-DiT中適配的是T5和CLIP的結合,這次更進一步,直接升級到了新一代多模態(tài)大語言模型(Multimodal Large Language Model)。

由此能夠獲得更強大的語義跟隨能力,體現(xiàn)在能夠更好地應對畫面中存在的多個主體,以及完成指令中更多的細節(jié)。

2、視覺編碼器部分,支持混合圖片/視頻訓練,提升壓縮重建性能

視頻生成模型中的視覺編碼器,在壓縮圖片/視頻數(shù)據(jù),保留細節(jié)信息方面起著關鍵作用。

混元團隊自研了3D視覺編碼器支持混合圖片/視頻訓練,同時優(yōu)化了編碼器訓練算法,顯著提升了編碼器在快速運行、紋理細節(jié)上的壓縮重建性能,使得視頻生成模型在細節(jié)表現(xiàn)上,特別是小人臉、高速鏡頭等場景有明顯提升。

3、從頭到尾用full attention(全注意力)的機制,沒有用時空模塊,提升畫面流暢度。

混元視頻生成模型采用統(tǒng)一的全注意力機制,使得每幀視頻的銜接更為流暢,并能實現(xiàn)主體一致的多視角鏡頭切換。

與“分離的時空注意力機制”分別關注視頻中的空間特征和時間特征,相比之下,全注意力機制則更像一個純視頻模型,表現(xiàn)出更優(yōu)越的效果。

更多細節(jié),可以參見完整技術報告~

官網(wǎng):https://aivideo.hunyuan.tencent.com

代碼:https://github.com/Tencent/HunyuanVideo

模型:https://huggingface.co/tencent/HunyuanVideo

技術報告:https://github.com/Tencent/HunyuanVideo/blob/main/assets/hunyuanvideo.pdf

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-03-18 08:47:34

馬斯克GrokOpenAI

2023-04-07 13:54:37

模型AI

2025-04-14 09:27:00

2024-03-12 13:22:00

訓練數(shù)據(jù)

2023-12-19 13:18:36

AI數(shù)據(jù)

2024-12-04 13:34:22

2025-02-26 14:00:00

開源模型數(shù)據(jù)

2024-07-22 07:10:00

小模型機器學習蘋果

2024-02-04 07:20:00

AI模型

2023-06-16 13:37:00

AI學習

2023-04-07 09:28:31

模型訓練

2023-06-06 14:09:32

模型開源

2023-04-04 13:17:00

GPUCMU開源

2023-12-03 08:49:38

微軟開源

2025-04-02 09:00:00

模型開源AI

2023-06-09 12:56:17

AlpacaWizardLMVicuna

2025-03-26 06:56:56

2024-03-18 10:17:00

開源AI

2023-08-18 14:34:00

研究模型

2023-10-30 14:59:28

點贊
收藏

51CTO技術棧公眾號