自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

清華朱軍團(tuán)隊(duì) | 從點(diǎn)云到高保真三維網(wǎng)格:DeepMesh突破自回歸生成瓶頸

人工智能 新聞
清華大學(xué)朱軍團(tuán)隊(duì)近日提出了 DeepMesh 方法,通過(guò)引入創(chuàng)新的自回歸生成框架,顯著提升了高面片人造網(wǎng)格的生成能力。

論文有三位共同一作。趙若雯,清華大學(xué)一年級(jí)碩士生,主要研究生成模型、強(qiáng)化學(xué)習(xí)和具身智能,已在ICRA等會(huì)議發(fā)表論文。葉俊良,清華大學(xué)二年級(jí)碩士生,專(zhuān)注于3D生成和基于人類(lèi)偏好的多模態(tài)強(qiáng)化學(xué)習(xí)研究,曾以第一作者身份在ECCV發(fā)表DreamReward,該成果能生成更符合人類(lèi)偏好的3D資產(chǎn)。王征翊,清華大學(xué)四年級(jí)博士生,主要研究3D多模態(tài)生成模型,已在NeurIPS、ECCV、ICML、CVPR等頂級(jí)學(xué)術(shù)會(huì)議發(fā)表多篇論文。

在三維數(shù)字內(nèi)容生產(chǎn)領(lǐng)域,三角形網(wǎng)格作為核心的幾何表示形式,其質(zhì)量直接影響虛擬資產(chǎn)在影視、游戲和工業(yè)設(shè)計(jì)等應(yīng)用場(chǎng)景中的表現(xiàn)與效率。

傳統(tǒng)的三維網(wǎng)格生成方式,如人工建?;?Marching Cubes 等算法,存在成本高、拓?fù)浣Y(jié)構(gòu)質(zhì)量差等問(wèn)題。

針對(duì)這一瓶頸,清華大學(xué)朱軍團(tuán)隊(duì)近日提出了 DeepMesh 方法,通過(guò)引入創(chuàng)新的自回歸生成框架,顯著提升了高面片人造網(wǎng)格的生成能力。該方法支持生成高達(dá) 3 萬(wàn)個(gè)面片的三維網(wǎng)格,相比現(xiàn)有技術(shù)提升了一個(gè)數(shù)量級(jí)。

圖片


  • 論文標(biāo)題:DeepMesh: Auto-Regressive Artist-mesh Creation with Reinforcement Learning 
  • 論文主頁(yè):https://zhaorw02.github.io/DeepMesh/
  • 論文地址:https://arxiv.org/abs/2503.15265
  • 代碼:https://github.com/zhaorw02/DeepMesh

DeepMesh 基于輸入點(diǎn)云,采用自回歸的 Transformer 架構(gòu)逐步預(yù)測(cè)面片序列,從而生成拓?fù)浣Y(jié)構(gòu)合理且視覺(jué)美觀的高質(zhì)量三維網(wǎng)格。

圖片

圖片

圖片

圖片

DeepMesh 架構(gòu)如圖所示,系統(tǒng)首先利用編碼器對(duì)輸入點(diǎn)云進(jìn)行特征提?。惶崛〉降奶卣麟S后被輸入至自回歸 Transformer 模塊,該模塊通過(guò)融合自注意力與交叉注意力機(jī)制,逐步預(yù)測(cè)網(wǎng)格的頂點(diǎn)或面片序列,最終生成結(jié)構(gòu)完整的高質(zhì)量三維網(wǎng)格。

圖片

在預(yù)訓(xùn)練階段,DeepMesh 引入了三級(jí)塊結(jié)構(gòu)網(wǎng)格標(biāo)記化方法:根據(jù)面片之間的連通性對(duì)網(wǎng)格進(jìn)行分解,并將其劃分為粗、中、細(xì)多個(gè)空間層級(jí)。在此基礎(chǔ)上,將面片中各頂點(diǎn)的坐標(biāo)映射為相對(duì)于所屬層級(jí)塊的偏移索引,并對(duì)重復(fù)索引進(jìn)行合并處理。

圖片

該方法在確保幾何精度的同時(shí),顯著壓縮了序列長(zhǎng)度,從而大幅提升了訓(xùn)練效率。圖中展示了采用 DeepMesh 網(wǎng)格標(biāo)記化方法與其他方法,在訓(xùn)練不同面片數(shù)量的網(wǎng)格數(shù)據(jù)時(shí)的耗時(shí)對(duì)比情況。

通過(guò)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行封裝處理,并引入融合幾何質(zhì)量與結(jié)構(gòu)規(guī)整度的雙重篩選機(jī)制,DeepMesh 有效解決了異常樣本引發(fā)的訓(xùn)練不穩(wěn)定問(wèn)題,同時(shí)實(shí)現(xiàn)了訓(xùn)練過(guò)程中的動(dòng)態(tài)負(fù)載均衡。為突破長(zhǎng)序列帶來(lái)的內(nèi)存瓶頸,模型還采用了滑動(dòng)窗口截?cái)嘤?xùn)練技術(shù),支持單個(gè)網(wǎng)格生成高達(dá) 3 萬(wàn)個(gè)面片,顯著提升了建模能力。

此外,DeepMesh 創(chuàng)新性地引入了「直接偏好優(yōu)化(DPO)」強(qiáng)化學(xué)習(xí)框架,并構(gòu)建了一個(gè)結(jié)合客觀幾何指標(biāo)與主觀人類(lèi)評(píng)價(jià)的分階段數(shù)據(jù)標(biāo)注系統(tǒng)。

該系統(tǒng)首先利用幾何質(zhì)量指標(biāo)篩除存在明顯缺陷的 3D 樣本,隨后由人工對(duì)剩余數(shù)據(jù)進(jìn)行標(biāo)注,評(píng)估其拓?fù)浣Y(jié)構(gòu)的合理性與視覺(jué)觀賞性?;谶@套高質(zhì)量的標(biāo)注數(shù)據(jù),團(tuán)隊(duì)對(duì)模型進(jìn)行了強(qiáng)化訓(xùn)練,從而顯著提升了生成結(jié)果在幾何完整性與拓?fù)涿烙^性方面的表現(xiàn)。

圖片

圖片

DeepMesh 在細(xì)節(jié)保真與結(jié)構(gòu)多樣性方面表現(xiàn)出色,并具備對(duì)傳統(tǒng)生成方法所生成網(wǎng)格進(jìn)行拓?fù)鋬?yōu)化的能力。與現(xiàn)有方法相比,DeepMesh 在幾何精度與拓?fù)滟|(zhì)量?jī)蓚€(gè)維度均實(shí)現(xiàn)最優(yōu)性能,生成的三維網(wǎng)格不僅在結(jié)構(gòu)合理性上表現(xiàn)卓越,也在視覺(jué)美觀性上更具吸引力。

圖片

圖片

在多樣性生成方面,DeepMesh 能在保持輸入點(diǎn)云幾何一致性的前提下,對(duì)同一輸入生成多種具有高保真度且外觀風(fēng)格各異的三維網(wǎng)格方案,展現(xiàn)出強(qiáng)大的創(chuàng)意生成與精度控制的能力。這一特性對(duì)于影視制作、游戲設(shè)計(jì)等需進(jìn)行多版本快速迭代的應(yīng)用場(chǎng)景具有顯著價(jià)值。

圖片

針對(duì)傳統(tǒng)方法(如 TRELLIS)生成的拓?fù)浣Y(jié)構(gòu)混亂問(wèn)題,DeepMesh 可對(duì)其輸出結(jié)果進(jìn)行有效的拓?fù)鋬?yōu)化,顯著提升網(wǎng)格結(jié)構(gòu)的有序性與合理性。

圖片

圖片

圖片

圖片

憑借在高保真、多樣性與拓?fù)鋬?yōu)化方面的突出表現(xiàn),DeepMesh 展現(xiàn)出在 3D 內(nèi)容創(chuàng)作領(lǐng)域的顛覆性潛力,特別適用于數(shù)字游戲、虛擬現(xiàn)實(shí)、影視制作等對(duì)創(chuàng)意表達(dá)與建模效率要求極高的行業(yè)。

該研究成果發(fā)布后迅速引發(fā)廣泛關(guān)注,知名推特博主 AK 第一時(shí)間轉(zhuǎn)發(fā)支持,相關(guān)內(nèi)容獲得上千點(diǎn)贊,引發(fā)業(yè)內(nèi)與社群的熱烈討論與積極反饋。

圖片

以下展示更多由 DeepMesh 生成的三維網(wǎng)格示例,進(jìn)一步體現(xiàn)模型在細(xì)節(jié)還原、拓?fù)浜侠硇约岸鄻有苑矫娴膹?qiáng)大能力。

圖片

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2025-04-03 10:17:23

2025-03-12 09:05:02

2023-12-23 23:08:21

語(yǔ)音數(shù)據(jù)

2024-01-09 09:37:36

自動(dòng)駕駛視覺(jué)

2024-12-23 15:46:59

2023-06-02 13:35:11

AI檢索

2023-05-29 10:39:00

AI算法

2023-03-13 15:56:00

模型框架

2025-03-26 09:55:14

2025-04-25 09:15:00

模型數(shù)據(jù)AI

2024-11-25 08:50:00

2025-03-14 12:03:29

2023-07-03 09:41:12

算法AI

2023-06-08 14:09:00

研究訓(xùn)練

2014-06-05 17:40:05

2009-11-25 13:43:02

CDN內(nèi)容分布網(wǎng)絡(luò)

2025-03-24 09:41:22

2023-12-05 13:48:00

數(shù)據(jù)訓(xùn)練

2024-07-30 11:50:00

視頻生成
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)