自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Diff2Scene:無須3D標(biāo)注,擴(kuò)散模型如何顛覆開放詞匯3D語義分割?

人工智能
Diff2Scene 是一種利用文本-圖像擴(kuò)散模型進(jìn)行 開放詞匯3D語義分割 的新方法,無需任何標(biāo)注的3D數(shù)據(jù),即可對(duì) 3D點(diǎn)云 進(jìn)行語義理解,并在 ScanNet200 數(shù)據(jù)集上提升 12% 的 SOTA 性能。

一眼概覽

Diff2Scene 是一種利用文本-圖像擴(kuò)散模型進(jìn)行 開放詞匯3D語義分割 的新方法,無需任何標(biāo)注的3D數(shù)據(jù),即可對(duì) 3D點(diǎn)云 進(jìn)行語義理解,并在 ScanNet200 數(shù)據(jù)集上提升 12% 的 SOTA 性能。

核心問題

背景問題:傳統(tǒng) 3D 語義分割依賴封閉集標(biāo)簽,無法處理新類別,且標(biāo)注 3D 數(shù)據(jù)極其昂貴?,F(xiàn)有 CLIP-based 方法在處理 細(xì)粒度類別和復(fù)雜文本查詢 時(shí)表現(xiàn)不佳。核心挑戰(zhàn):如何在 無3D標(biāo)注 的情況下,實(shí)現(xiàn) 開放詞匯的 3D 語義分割和視覺錨定(visual grounding)?應(yīng)用價(jià)值:自動(dòng)駕駛、機(jī)器人導(dǎo)航、AR/VR 場(chǎng)景解析等場(chǎng)景需要無監(jiān)督、泛化性強(qiáng)的 3D 語義理解方法。

技術(shù)亮點(diǎn)

1. 擴(kuò)散模型特征提取:使用 Stable Diffusion 預(yù)訓(xùn)練的 文本-圖像生成模型 提取語義豐富的 2D 特征,比 CLIP 更擅長(zhǎng) 局部特征表示,有利于密集預(yù)測(cè)任務(wù)。

2. 多模態(tài)掩碼蒸餾(Mask Distillation):創(chuàng)新性地設(shè)計(jì)了 2D-3D 掩碼蒸餾機(jī)制,通過 2D 語義掩碼作為分類器 預(yù)測(cè) 3D 語義,增強(qiáng)了 3D 語義理解能力。

3. 零樣本3D分割:完全 摒棄3D標(biāo)注數(shù)據(jù),僅使用 2D-3D 對(duì)應(yīng)關(guān)系進(jìn)行 無監(jiān)督知識(shí)蒸餾,實(shí)現(xiàn)了端到端的 開放詞匯 3D 語義分割

方法框架

圖片

Diff2Scene 采用 雙分支架構(gòu),結(jié)合 2D 語義理解 和 3D 幾何感知,主要步驟如下:

1. 2D 語義解析

? 采用 Stable Diffusion U-Net 作為特征提取器,從 RGB 圖像生成 2D 語義掩碼(Salient-aware Masks)。

? 這些掩碼包含了豐富的 文本-視覺信息,并作為 分類器 提供 3D 語義先驗(yàn)。

2. 3D 掩碼預(yù)測(cè)

? 采用 稀疏 3D 卷積 U-Net 處理 點(diǎn)云數(shù)據(jù),并結(jié)合 2D 掩碼提升 3D 預(yù)測(cè)能力。

? 生成 幾何感知掩碼(Geometric-aware Masks),提取 3D 空間信息。

3. 多模態(tài)掩碼蒸餾

2D 語義掩碼 → 3D 語義掩碼 遷移,保證 2D 和 3D 語義的一致性。

? 采用 余弦相似度損失(Cosine Similarity Loss)約束 2D 和 3D 掩碼的分布一致性,實(shí)現(xiàn) 跨模態(tài)特征學(xué)習(xí)。

4. 開放詞匯推理

? 采用 融合推理策略,將 Stable Diffusion 的生成特征 和 CLIP 的判別特征 結(jié)合,實(shí)現(xiàn) 靈活的語義查詢。

實(shí)驗(yàn)結(jié)果速覽

圖片圖片

Diff2Scene 在多個(gè) 3D 語義分割基準(zhǔn)測(cè)試上超越 SOTA:

ScanNet200(零樣本設(shè)置)

a.整體 mIoU 提升 12%(從 34.2 → 46.2

b.尾類 mIoU 提升 2.6%(從 11.9 → 12.9

Matterport3D:mIoU 提升 3.1%(從 42.6 → 45.5

Replica(通用化測(cè)試):mIoU 提升 2.6%(從 14.9 → 17.5

視覺錨定任務(wù)(Nr3D)

    ? 在 “紅色短箱子”、“帶皺紋毛巾的架子” 等復(fù)雜文本查詢?nèi)蝿?wù)中,Diff2Scene 比 OpenScene 預(yù)測(cè)更加精準(zhǔn)。

實(shí)用價(jià)值與應(yīng)用

Diff2Scene 完全摒棄了 3D 數(shù)據(jù)標(biāo)注,在 真實(shí)世界開放環(huán)境 具有極大應(yīng)用潛力:

自動(dòng)駕駛:適用于 長(zhǎng)尾類別 識(shí)別(例如罕見的路障、動(dòng)物等)。

機(jī)器人感知:提供 無監(jiān)督的 3D 物體定位,提升 環(huán)境理解能力

增強(qiáng)現(xiàn)實(shí)(AR):基于文本語義進(jìn)行 3D 場(chǎng)景查詢與交互,提升用戶體驗(yàn)。

建筑和室內(nèi)設(shè)計(jì):支持 自然語言搜索 3D 物品,簡(jiǎn)化 室內(nèi)規(guī)劃 任務(wù)。

開放問題

1. 在極端長(zhǎng)尾分布類別(如 ScanNet200 的“窗臺(tái)”)上,Diff2Scene 仍然容易誤分類,如何進(jìn)一步提升其魯棒性?

2. 當(dāng)前方法依賴 2D 預(yù)訓(xùn)練模型,未來是否可以探索端到端的 3D 擴(kuò)散模型,直接生成 3D 語義表示?

3. 擴(kuò)散模型的生成特征對(duì) 3D 語義分割是否真的比 CLIP 判別特征更有效?是否可以進(jìn)一步融合兩者的優(yōu)勢(shì)?

責(zé)任編輯:武曉燕 來源: 萍哥學(xué)AI
相關(guān)推薦

2020-08-26 10:37:21

阿里3D

2024-03-20 15:51:00

AI數(shù)據(jù)

2025-03-27 09:26:30

2011-09-22 10:07:52

奧圖碼投影儀

2024-12-10 09:40:00

AI3D模型

2023-12-07 13:07:59

3D模型訓(xùn)練

2023-08-18 08:00:00

游戲開發(fā)3D模型

2011-10-06 13:30:45

宏碁投影儀

2011-05-03 11:07:46

2D3D麗訊

2012-11-26 12:51:44

木材3D打

2023-12-06 13:36:00

模型數(shù)據(jù)

2011-05-26 10:05:07

優(yōu)派投影機(jī)

2023-05-03 09:01:41

CanvasWebGL

2011-08-26 14:50:23

2011-04-26 14:21:20

3DJVC投影機(jī)

2012-08-13 17:11:37

Silverlight

2023-03-03 21:42:18

鴻蒙

2011-05-25 16:07:17

2022-05-23 10:26:10

人工智能機(jī)器學(xué)習(xí)機(jī)器視覺

2015-09-09 11:05:52

3d視差引導(dǎo)頁(yè)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)