自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

上科大等發(fā)布DreamFace:只需文本即可生成「超寫實(shí)3D數(shù)字人」

人工智能 新聞
AIGC進(jìn)入3D時(shí)代,用文字就能生成超逼真數(shù)字人!

隨著大型語(yǔ)言模型(LLM)、擴(kuò)散(Diffusion)等技術(shù)的發(fā)展,ChatGPT、Midjourney等產(chǎn)品的誕生掀起了新一波的AI熱潮,生成式AI也成為備受關(guān)注的話題。

與文本和圖像不同,3D生成仍處于技術(shù)探索階段。

2022年年底,Google、NVIDIA和微軟相繼推出了自己的3D生成工作,但大多基于先進(jìn)的神經(jīng)輻射場(chǎng)(NeRF)隱式表達(dá),與工業(yè)界3D軟件如Unity、Unreal Engine和Maya等的渲染管線不兼容。

即使通過(guò)傳統(tǒng)方案將其轉(zhuǎn)換為Mesh表達(dá)的幾何和顏色貼圖,也會(huì)造成精度不足和視覺(jué)質(zhì)量下降,不能直接應(yīng)用于影視制作和游戲生產(chǎn)。

圖片

項(xiàng)目網(wǎng)站:https://sites.google.com/view/dreamface

論文地址:https://arxiv.org/abs/2304.03117

Web Demo:https://hyperhuman.top

HuggingFace Space:https://huggingface.co/spaces/DEEMOSTECH/ChatAvatar

為了解決這些問(wèn)題,來(lái)自影眸科技與上??萍即髮W(xué)的研發(fā)團(tuán)隊(duì)提出了一種文本指導(dǎo)的漸進(jìn)式3D生成框架。

該框架引入符合CG制作標(biāo)準(zhǔn)的外部數(shù)據(jù)集(包含幾何和PBR材質(zhì)),可以根據(jù)文本直接生成符合該標(biāo)準(zhǔn)的3D資產(chǎn),是首個(gè)支持Production-Ready 3D資產(chǎn)生成的框架。

為了實(shí)現(xiàn)文本生成可驅(qū)動(dòng)的3D超寫實(shí)數(shù)字人,該團(tuán)隊(duì)將這個(gè)框架與產(chǎn)品級(jí)3D數(shù)字人數(shù)據(jù)集相結(jié)合。這項(xiàng)工作已經(jīng)被計(jì)算機(jī)圖形領(lǐng)域國(guó)際頂級(jí)期刊Transactions on Graphics接收,并將在國(guó)際計(jì)算機(jī)圖形頂級(jí)會(huì)議SIGGRAPH 2023上展示。

DreamFace主要包括三個(gè)模塊,幾何體生成,基于物理的材質(zhì)擴(kuò)散和動(dòng)畫能力生成。

相比先前的3D生成工作,這項(xiàng)工作的主要貢獻(xiàn)包括:

· 提出了DreamFace這一新穎的生成方案,將最近的視覺(jué)-語(yǔ)言模型與可動(dòng)畫和物理材質(zhì)的面部資產(chǎn)相結(jié)合,通過(guò)漸進(jìn)式學(xué)習(xí)來(lái)分離幾何、外觀和動(dòng)畫能力。

· 引入了雙通道外觀生成的設(shè)計(jì),將一種新穎的材質(zhì)擴(kuò)散模型與預(yù)訓(xùn)練模型相結(jié)合,同時(shí)在潛在空間和圖像空間進(jìn)行兩階段優(yōu)化。

· 使用BlendShapes或生成的Personalized BlendShapes的面部資產(chǎn)具備動(dòng)畫能力,并進(jìn)一步展示了DreamFace在自然人物設(shè)計(jì)方面的應(yīng)用。

幾何生成

幾何體生成模塊可以根據(jù)文本提示生成與之一致的幾何模型。然而,在人臉生成方面,這可能難以監(jiān)督和收斂。

因此,DreamFace提出了一個(gè)基于CLIP(Contrastive Language-Image Pre-Training)的選擇框架,首先從對(duì)人臉幾何參數(shù)空間內(nèi)隨機(jī)采樣的候選項(xiàng)中選擇最佳的粗略幾何模型,然后雕刻幾何細(xì)節(jié),使頭部模型更符合文本提示。

圖片

根據(jù)輸入提示,DreamFace利用CLIP模型選擇匹配得分最高的粗略幾何候選項(xiàng)。接下來(lái),DreamFace使用隱式擴(kuò)散模型(LDM)在隨機(jī)視角和光照條件下對(duì)渲染圖像進(jìn)行得分蒸餾采樣(SDS)處理。

這使得DreamFace可以通過(guò)頂點(diǎn)位移和詳細(xì)的法線貼圖向粗略幾何模型添加面部細(xì)節(jié),從而得到高度精細(xì)的幾何體。

與頭部模型類似,DreamFace還基于該框架進(jìn)行發(fā)型和顏色的選擇。

基于物理的材質(zhì)擴(kuò)散生成

基于物理的材質(zhì)擴(kuò)散模塊旨在預(yù)測(cè)與預(yù)測(cè)幾何體和文本提示一致的面部紋理。

首先,DreamFace將預(yù)先訓(xùn)練的LDM在收集的大規(guī)模UV材質(zhì)數(shù)據(jù)集上微調(diào),得到兩個(gè)LDM擴(kuò)散模型。

圖片

DreamFace采用了一種聯(lián)合訓(xùn)練方案,協(xié)調(diào)兩個(gè)擴(kuò)散過(guò)程,一個(gè)用于直接去噪U(xiǎn)V紋理貼圖,另一個(gè)用于監(jiān)督渲染圖像,以確保面部UV貼圖和渲染圖像的正確形成與文本提示一致。

為了減少生成時(shí)間,DreamFace采用了一個(gè)粗糙紋理潛在擴(kuò)散階段,為細(xì)節(jié)紋理生成提供先驗(yàn)潛在。

圖片

為了確保所創(chuàng)建的紋理地圖不含有不良特征或照明情況,同時(shí)仍保持多樣性,設(shè)計(jì)了一種提示學(xué)習(xí)策略。

團(tuán)隊(duì)利用兩種方法生成高質(zhì)量的漫反射貼圖:

(1)Prompt Tuning。與手工制作的特定領(lǐng)域文本提示不同,DreamFace將兩個(gè)特定領(lǐng)域的連續(xù)文本提示 Cd 和 Cu 與相應(yīng)的文本提示結(jié)合起來(lái),這將在U-Net去噪器訓(xùn)練期間進(jìn)行優(yōu)化,以避免不穩(wěn)定和耗時(shí)的手工撰寫提示。

(2)非面部區(qū)域遮罩。LDM去噪過(guò)程將額外地受到非面部區(qū)域遮罩的限制,以確保生成的漫反射貼圖不含有任何不需要的元素。

圖片

作為最后一步,DreamFace應(yīng)用超分辨率模塊生成4K基于物理的紋理,以進(jìn)行高質(zhì)量渲染。

圖片

DreamFace框架在名人生成,根據(jù)描述生成角色上都取得了相當(dāng)不錯(cuò)的效果,在User Study中獲得了遠(yuǎn)超先前工作的成績(jī)。相比先前的工作,在運(yùn)行時(shí)間上也具備明顯的優(yōu)勢(shì)。

圖片

除此之外,DreamFace還支持使用提示和草圖進(jìn)行紋理編輯。通過(guò)直接使用微調(diào)的紋理LDM和提示,可以實(shí)現(xiàn)全局的編輯效果,如老化和化妝。通過(guò)進(jìn)一步結(jié)合掩?;虿輬D,可以創(chuàng)建各種效果,如紋身、胡須和胎記。

圖片

動(dòng)畫能力生成

圖片

DreamFace生成的模型具備動(dòng)畫能力。與基于BlendShapes的方法不同,DreamFace的神經(jīng)面部動(dòng)畫方法通過(guò)預(yù)測(cè)獨(dú)特的變形來(lái)為生成的靜息(Neutral)模型賦予動(dòng)畫效果,從而產(chǎn)生個(gè)性化的動(dòng)畫。

首先,訓(xùn)練一個(gè)幾何生成器,學(xué)習(xí)表情的潛在空間,其中解碼器被擴(kuò)展為以中性幾何形狀為條件。接著,進(jìn)一步訓(xùn)練表情編碼器,從RGB圖像中提取表情特征。因此,DreamFace能夠通過(guò)使用單目RGB圖像以中性幾何形狀為條件來(lái)生成個(gè)性化的動(dòng)畫。

與使用通用BlendShapes進(jìn)行表情控制的DECA相比,DreamFace的框架提供了細(xì)致的表情細(xì)節(jié),并且能夠精細(xì)地捕捉表演。

結(jié)論

本文介紹了DreamFace,一種文本指導(dǎo)的漸進(jìn)式3D生成框架,它結(jié)合了最新的視覺(jué)-語(yǔ)言模型、隱式擴(kuò)散模型,以及基于物理的材質(zhì)擴(kuò)散技術(shù)。

DreamFace的主要?jiǎng)?chuàng)新包括幾何體生成、基于物理的材質(zhì)擴(kuò)散生成和動(dòng)畫能力生成。與傳統(tǒng)的3D生成方法相比,DreamFace具有更高的準(zhǔn)確性、更快的運(yùn)行速度和較好的CG管線兼容性。

DreamFace的漸進(jìn)式生成框架為解決復(fù)雜的3D生成任務(wù)提供了一種有效的解決方案,有望推動(dòng)更多類似的研究和技術(shù)發(fā)展。

此外,基于物理的材質(zhì)擴(kuò)散生成和動(dòng)畫能力生成將推動(dòng)3D生成技術(shù)在影視制作、游戲開(kāi)發(fā)和其他相關(guān)行業(yè)的應(yīng)用。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2023-05-08 15:44:23

3D數(shù)字人

2024-12-10 15:17:11

2024-07-16 12:02:11

2025-03-18 10:32:47

2023-07-14 09:41:01

3DAI

2023-09-21 12:33:31

3DAI

2023-01-10 14:25:24

微軟AI

2022-09-29 16:11:54

3D訓(xùn)練

2025-01-14 10:30:00

3D生成AI

2009-12-14 08:58:25

HTML5網(wǎng)頁(yè)3DWebGL

2025-01-14 09:24:46

2022-08-03 13:52:22

AI建筑師

2023-05-09 13:45:46

ChatGPT3D

2011-04-26 14:21:20

3DJVC投影機(jī)

2018-08-14 13:59:00

大數(shù)據(jù)

2019-11-18 10:22:01

深度學(xué)習(xí)編程人工智能

2023-12-07 10:37:55

3D框架AI

2024-01-08 13:34:00

模型訓(xùn)練

2011-05-03 11:07:46

2D3D麗訊
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)