自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

中科大&vivo最新深度估計(jì)DepthMaster:泛化能力、細(xì)節(jié)保留超越其他基于擴(kuò)散方法

人工智能 新聞
DepthMaster是用于定制擴(kuò)散模型以適應(yīng)深度估計(jì)任務(wù)。通過(guò)引入特征對(duì)齊模塊,有效地緩解了對(duì)紋理細(xì)節(jié)的過(guò)擬合問(wèn)題。

  本文經(jīng)3D視覺(jué)之心公眾號(hào)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

單目深度估計(jì)的瓶頸

單目深度估計(jì)(Monocular Depth Estimation, MDE)因其簡(jiǎn)單、低成本和易于部署的特點(diǎn),受到了廣泛關(guān)注。與傳統(tǒng)的深度傳感技術(shù)(如LiDAR或立體視覺(jué))不同,MDE僅需要一張RGB圖像作為輸入,因此在自動(dòng)駕駛、虛擬現(xiàn)實(shí)和圖像合成等多個(gè)應(yīng)用領(lǐng)域中具有很高的吸引力。然而,這也帶來(lái)了一個(gè)顯著的挑戰(zhàn):如何在廣泛的應(yīng)用場(chǎng)景中實(shí)現(xiàn)卓越的泛化能力,以有效應(yīng)對(duì)場(chǎng)景布局、深度分布、光照條件等因素的多樣性和復(fù)雜性。這項(xiàng)任務(wù)并非易事,因?yàn)椴煌膱?chǎng)景和條件往往帶來(lái)非常大的變化。

近年來(lái),零-shot單目深度估計(jì)主要發(fā)展為兩大類(lèi)方法:基于數(shù)據(jù)的方法基于模型的方法。基于數(shù)據(jù)的方法:依賴(lài)于大量的圖像-深度對(duì),通過(guò)訓(xùn)練得到圖像與深度之間的映射。然而,這一過(guò)程非常耗時(shí)且需要巨大的計(jì)算資源。與之相對(duì),基于模型的方法則通過(guò)利用預(yù)訓(xùn)練的骨干網(wǎng)絡(luò),尤其是在穩(wěn)定擴(kuò)散模型(Stable Diffusion)上下文中,展現(xiàn)了較為高效的性能。例如,Marigold通過(guò)將深度估計(jì)重構(gòu)為擴(kuò)散去噪過(guò)程,在泛化和細(xì)節(jié)保留方面取得了令人印象深刻的成果。然而,迭代去噪過(guò)程導(dǎo)致了較低的推理速度。

盡管擴(kuò)散模型在單目深度估計(jì)中的應(yīng)用取得了顯著的進(jìn)展,但很少有研究深入探討如何最有效地將生成特征適應(yīng)于判別性任務(wù)。因此,本文將重點(diǎn)分析擴(kuò)散模型中的特征表示,特別是在如何優(yōu)化去噪網(wǎng)絡(luò)的特征表示能力上。通常,擴(kuò)散模型由圖像到潛在空間的編碼解碼器和去噪網(wǎng)絡(luò)組成。前者將圖像壓縮到潛在空間并重建,而后者則負(fù)責(zé)對(duì)場(chǎng)景進(jìn)行感知與推理。通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),主要的瓶頸在于去噪網(wǎng)絡(luò)的特征表示能力。事實(shí)上,用于預(yù)訓(xùn)練去噪網(wǎng)絡(luò)的重建任務(wù)使得模型過(guò)于關(guān)注紋理細(xì)節(jié),導(dǎo)致深度預(yù)測(cè)中的紋理不真實(shí)。因此,如何增強(qiáng)去噪網(wǎng)絡(luò)的特征表示能力并減少對(duì)無(wú)關(guān)細(xì)節(jié)的依賴(lài),是將擴(kuò)散模型應(yīng)用于深度估計(jì)任務(wù)的關(guān)鍵問(wèn)題。

圖片

DepthMaster【1】是一個(gè)定制的單步擴(kuò)散模型,旨在提升深度估計(jì)模型的泛化能力和細(xì)節(jié)保留能力。

  • 首先,我們引入了特征對(duì)齊模塊(Feature Alignment),通過(guò)高質(zhì)量的外部視覺(jué)表示來(lái)提升去噪網(wǎng)絡(luò)的特征表示能力,并減少對(duì)紋理細(xì)節(jié)的過(guò)擬合。
  • 其次,為了解決單步框架中缺乏細(xì)粒度細(xì)節(jié)的問(wèn)題,我們提出了傅里葉增強(qiáng)模塊(Fourier Enhancement),在頻域內(nèi)自適應(yīng)平衡低頻結(jié)構(gòu)特征和高頻細(xì)節(jié)特征,從而有效模擬擴(kuò)散模型中多步去噪過(guò)程的學(xué)習(xí)。

通過(guò)這些優(yōu)化,我們的方法在多種數(shù)據(jù)集上超越了其他基于擴(kuò)散的深度估計(jì)方法,取得了最新的性能。

主要貢獻(xiàn)

  • 提出了DepthMaster,一種定制生成特征的創(chuàng)新方法,旨在將擴(kuò)散模型適應(yīng)于判別性深度估計(jì)任務(wù)。
  • 引入了特征對(duì)齊模塊,以高質(zhì)量的外部特征緩解對(duì)紋理細(xì)節(jié)的過(guò)擬合,并提出了傅里葉增強(qiáng)模塊,以在頻域內(nèi)細(xì)化細(xì)粒度細(xì)節(jié)。
  • 方法展現(xiàn)了最新的零樣本性能和卓越的細(xì)節(jié)保留能力,超越了其他基于擴(kuò)散的算法,并在多個(gè)數(shù)據(jù)集上表現(xiàn)出色。

項(xiàng)目鏈接:https://indu1ge.github.io/DepthMaster_page/

具體方法

圖片

確定性范式

特征對(duì)齊模塊

穩(wěn)定擴(kuò)散v2由兩個(gè)主要組件組成:I2L編碼器-解碼器和去噪U(xiǎn)-Net。I2L編碼器-解碼器負(fù)責(zé)特征壓縮,旨在減少推理時(shí)間和訓(xùn)練成本。通過(guò)圖像重建訓(xùn)練,它主要捕捉低層特征。與此不同,U-Net負(fù)責(zé)從噪聲圖像中恢復(fù)圖像,從而使其具備場(chǎng)景感知與推理能力。然而,由于U-Net是通過(guò)重建任務(wù)進(jìn)行訓(xùn)練的,它往往過(guò)度強(qiáng)調(diào)細(xì)節(jié)紋理,從而導(dǎo)致深度預(yù)測(cè)中的偽紋理問(wèn)題(如圖1所示)。因此,我們引入語(yǔ)義正則化來(lái)增強(qiáng)U-Net的場(chǎng)景表示能力,并防止過(guò)度擬合低級(jí)的顏色信息。

傅里葉增強(qiáng)模塊

單步范式通過(guò)避免多步迭代過(guò)程和多次運(yùn)行集成,有效地加速了推理過(guò)程。然而,擴(kuò)散模型輸出的細(xì)粒度特征通常來(lái)自于迭代細(xì)化過(guò)程。因此,單步模型在處理時(shí)會(huì)出現(xiàn)模糊的預(yù)測(cè)(如圖1所示)。為了緩解這一問(wèn)題,我們提出了傅里葉增強(qiáng)模塊,在頻域中進(jìn)行操作,以增強(qiáng)高頻細(xì)節(jié),從而有效模擬多步去噪過(guò)程中的學(xué)習(xí)。

加權(quán)多方向梯度損失

兩階段訓(xùn)練策略

由于I2L編碼器-解碼器的深度重建精度已經(jīng)足夠高,我們將重點(diǎn)微調(diào)U-Net。實(shí)驗(yàn)表明,潛在空間的監(jiān)督有助于模型更好地捕捉全局場(chǎng)景結(jié)構(gòu),而像素級(jí)的監(jiān)督則有助于捕捉細(xì)粒度的細(xì)節(jié),但也會(huì)引入全局結(jié)構(gòu)的失真?;谶@些觀(guān)察,我們提出了一個(gè)兩階段的訓(xùn)練策略。

實(shí)驗(yàn)效果

圖片圖片圖片圖片圖片圖片圖片

總結(jié)一下

DepthMaster是用于定制擴(kuò)散模型以適應(yīng)深度估計(jì)任務(wù)。通過(guò)引入特征對(duì)齊模塊,有效地緩解了對(duì)紋理細(xì)節(jié)的過(guò)擬合問(wèn)題。此外,通過(guò)傅里葉增強(qiáng)模塊在頻域中操作,顯著增強(qiáng)了細(xì)粒度細(xì)節(jié)的保留能力。得益于這些精心設(shè)計(jì),DepthMaster在零樣本性能和推理效率方面實(shí)現(xiàn)了顯著提升。廣泛的實(shí)驗(yàn)驗(yàn)證了我們方法的有效性,在泛化能力和細(xì)節(jié)保留方面達(dá)到了最新的水平,超越了其他基于擴(kuò)散模型的方法,并在各種數(shù)據(jù)集上表現(xiàn)優(yōu)異。

責(zé)任編輯:張燕妮 來(lái)源: 3D視覺(jué)之心
相關(guān)推薦

2021-11-17 16:13:45

IBM 處理器量子

2024-11-06 13:03:49

2013-06-19 11:32:32

計(jì)算性能ISCHPC

2024-06-26 14:50:52

2022-03-28 10:32:28

AI功能手勢(shì)

2024-06-17 07:10:00

2024-01-15 13:11:22

模型數(shù)據(jù)

2012-11-23 10:15:55

SCC12全球超級(jí)計(jì)算大會(huì)

2021-05-07 09:34:20

量子芯片計(jì)算機(jī)

2017-03-23 17:09:45

2023-08-21 13:49:00

圖像技術(shù)

2021-12-06 09:53:09

自然語(yǔ)言神經(jīng)網(wǎng)絡(luò)人工智能

2022-07-06 10:23:13

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2024-10-29 15:45:00

目標(biāo)檢測(cè)模型

2021-09-16 10:00:45

神經(jīng)網(wǎng)絡(luò)AI算法

2013-08-21 15:13:17

英特爾中科大洋廣電行業(yè)

2025-04-01 09:20:00

模型預(yù)測(cè)AI

2023-05-22 08:00:00

深度學(xué)習(xí)機(jī)器學(xué)習(xí)人工智能

2009-12-14 16:38:07

自主研發(fā)機(jī)器人

2025-03-14 10:22:03

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)