自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

北大、KAUST、字節(jié)聯(lián)合提出“可逆擴(kuò)散模型”賦能圖像重建,代碼已開(kāi)源!

人工智能 新聞
本文提出了一種可逆擴(kuò)散模型(Invertible Diffusion Models,IDM)。這一方法通過(guò)引入(1)端到端的訓(xùn)練框架與(2)可逆網(wǎng)絡(luò)設(shè)計(jì),有效提升了圖像重建的性能與效率。

本篇文章來(lái)自公眾號(hào)粉絲投稿,論文提出了一種可逆擴(kuò)散模型(Invertible Diffusion Models,IDM)。這一方法通過(guò)引入(1)端到端的訓(xùn)練框架與(2)可逆網(wǎng)絡(luò)設(shè)計(jì),有效提升了圖像重建的性能與效率。

一、論文信息

  • 論文標(biāo)題:Invertible Diffusion Models for Compressed Sensing
  • 論文作者:Bin Chen(陳斌), Zhenyu Zhang(張振宇), Weiqi Li(李瑋琦), Chen Zhao(趙?。? Jiwen Yu(余濟(jì)聞), Shijie Zhao(趙世杰), Jie Chen(陳杰) and Jian Zhang(張?。?/span>
  • 作者單位:北京大學(xué)信息工程學(xué)院、阿卜杜拉國(guó)王科技大學(xué)、字節(jié)跳動(dòng)
  • 發(fā)表刊物:IEEE Transactions on Pattern Analysis and Machine Intelligence (TPAMI)
  • 發(fā)表時(shí)間:2025年2月5日
  • 正式版本:https://ieeexplore.ieee.org/document/10874182
  • ArXiv版本:https://arxiv.org/abs/2403.17006
  • 開(kāi)源代碼:https://github.com/Guaishou74851/IDM

二、任務(wù)背景

擴(kuò)散模型作為當(dāng)前非常知名且強(qiáng)大的生成模型之一,已在圖像重建任務(wù)中展現(xiàn)出極大的潛力。擴(kuò)散模型的基本實(shí)現(xiàn)方式是在訓(xùn)練階段構(gòu)建一個(gè)噪聲估計(jì)網(wǎng)絡(luò)(通常是一個(gè)UNet),并在推理階段通過(guò)迭代的去噪和加噪過(guò)程完成圖像生成與重建。然而,如何進(jìn)一步提升擴(kuò)散模型在圖像重建中的性能與效率,仍然是業(yè)界探索的重點(diǎn)問(wèn)題。

當(dāng)我們將擴(kuò)散模型應(yīng)用于圖像重建任務(wù)時(shí),面臨兩個(gè)關(guān)鍵挑戰(zhàn):

  • 挑戰(zhàn)一:“噪聲估計(jì)”任務(wù)與“圖像重建”任務(wù)之間的偏差。擴(kuò)散模型中的深度神經(jīng)網(wǎng)絡(luò)主要針對(duì)“噪聲估計(jì)”任務(wù)(即,從當(dāng)前變量中估計(jì)出噪聲)得到最優(yōu)化,而非“圖像重建”任務(wù)(即,從低質(zhì)量的觀測(cè)數(shù)據(jù)中預(yù)測(cè)原始圖像)本身。這可能導(dǎo)致其圖像重建性能存在進(jìn)一步提升的空間。
  • 挑戰(zhàn)二:推理速度慢、效率低。盡管擴(kuò)散模型能夠生成較為真實(shí)的圖像,但其推理過(guò)程往往需要大量的迭代步驟,運(yùn)行時(shí)間長(zhǎng),計(jì)算開(kāi)銷(xiāo)大,不利于實(shí)際應(yīng)用。

針對(duì)這兩個(gè)挑戰(zhàn),本文提出了一種可逆擴(kuò)散模型(Invertible Diffusion Models,IDM)。這一方法通過(guò)引入(1)端到端的訓(xùn)練框架與(2)可逆網(wǎng)絡(luò)設(shè)計(jì),有效提升了圖像重建的性能與效率。

三、主要貢獻(xiàn)

我們的方法在圖像重建任務(wù)中帶來(lái)了兩個(gè)主要?jiǎng)?chuàng)新:

1.端到端的擴(kuò)散采樣圖像重建學(xué)習(xí)框架

傳統(tǒng)擴(kuò)散模型在訓(xùn)練階段的目標(biāo)任務(wù)是“噪聲估計(jì)”,而實(shí)際的目標(biāo)任務(wù)是“圖像重建”。為了提升擴(kuò)散模型的圖像重建性能,我們將它的迭代采樣過(guò)程重新定義為一個(gè)整體的圖像重建網(wǎng)絡(luò),對(duì)該網(wǎng)絡(luò)進(jìn)行端到端的訓(xùn)練,突破了傳統(tǒng)噪聲估計(jì)學(xué)習(xí)范式所帶來(lái)的局限。如圖所示,通過(guò)這種方式,模型的所有參數(shù)都針對(duì)“圖像重建”任務(wù)進(jìn)行了最優(yōu)化,重建性能得到大幅提升。實(shí)驗(yàn)結(jié)果表明,基于Stable Diffusion的預(yù)訓(xùn)練權(quán)重與這一端到端學(xué)習(xí)框架,在圖像壓縮感知重建任務(wù)中,相比其他模型,我們的方法在PSNR(峰值信噪比)指標(biāo)上提升了2dB,采樣步數(shù)從原本的100步降到了3步,推理速度提升了約15倍。

2.雙層可逆網(wǎng)絡(luò)設(shè)計(jì):減少內(nèi)存開(kāi)銷(xiāo)

大型擴(kuò)散模型(如Stable Diffusion)采樣過(guò)程的端到端訓(xùn)練需要占用很大的GPU內(nèi)存,這對(duì)于其實(shí)際應(yīng)用來(lái)說(shuō)是一個(gè)嚴(yán)重的瓶頸。為了減少內(nèi)存開(kāi)銷(xiāo),我們提出了一種雙層可逆網(wǎng)絡(luò)??赡婢W(wǎng)絡(luò)的核心思想是通過(guò)設(shè)計(jì)特殊的網(wǎng)絡(luò)結(jié)構(gòu),讓網(wǎng)絡(luò)每一層的輸出可以反向計(jì)算得到輸入。在實(shí)踐中,我們將可逆網(wǎng)絡(luò)應(yīng)用到(1)所有擴(kuò)散采樣步驟和(2)噪聲估計(jì)網(wǎng)絡(luò)的內(nèi)部,通過(guò)“布線”技術(shù)將每個(gè)采樣步驟與其前后模塊連接,形成一個(gè)雙層可逆網(wǎng)絡(luò)。這一設(shè)計(jì)使得整個(gè)訓(xùn)練過(guò)程中,程序無(wú)需存儲(chǔ)完整的特征圖數(shù)據(jù),只需存儲(chǔ)較少的中間變量,顯著降低了訓(xùn)練模型的GPU內(nèi)存需求。最終,這使得我們可以在顯存有限的GPU(如1080Ti)上對(duì)該模型進(jìn)行端到端訓(xùn)練。

四、實(shí)驗(yàn)結(jié)果

圖像壓縮感知重建

在圖像壓縮感知重建任務(wù)中,我們的方法IDM與現(xiàn)有基于端到端網(wǎng)絡(luò)和擴(kuò)散模型的重建方法進(jìn)行了對(duì)比。實(shí)驗(yàn)結(jié)果顯示,IDM在PSNR、SSIM、FID和LPIPS等指標(biāo)上取得明顯提升。

圖像補(bǔ)全與醫(yī)學(xué)成像

在掩碼率90%的圖像補(bǔ)全任務(wù)中,我們的方法能夠準(zhǔn)確恢復(fù)出窗戶等復(fù)雜結(jié)構(gòu),而傳統(tǒng)的擴(kuò)散模型(如DDNM)無(wú)法做到這一點(diǎn)。此外,我們還將該方法應(yīng)用于醫(yī)學(xué)影像領(lǐng)域,包括核磁共振成像(MRI)和計(jì)算機(jī)斷層掃描(CT)成像,取得了良好的效果。

計(jì)算成本與推理時(shí)間的優(yōu)化

基于傳統(tǒng)擴(kuò)散模型的圖像重建方法往往需要較長(zhǎng)的推理時(shí)間和計(jì)算開(kāi)銷(xiāo),而我們的可逆擴(kuò)散模型IDM顯著縮短了這一過(guò)程。在重建一張256×256大小的圖像時(shí),推理時(shí)間從9秒縮短至0.63秒,大幅降低了計(jì)算開(kāi)銷(xiāo)。與現(xiàn)有方法DDNM相比,IDM的訓(xùn)練、推理效率和重建性能得到了顯著提升。

欲了解更多細(xì)節(jié),請(qǐng)參考原論文。

五、作者簡(jiǎn)介

  • 陳斌:北京大學(xué)信息工程學(xué)院博士生,主要研究方向是圖像壓縮感知與超分辨率。
  • 張振宇:北京大學(xué)信息工程學(xué)院碩士生,主要研究方向是圖像重建。
  • 李瑋琦:北京大學(xué)信息工程學(xué)院博士生,主要研究方向是圖像壓縮感知與超分辨率。
  • 趙琛:沙特阿卜杜拉國(guó)王科技大學(xué)(KAUST)的研究科學(xué)家,圖像與視頻理解實(shí)驗(yàn)室(IVUL)視頻分析課題組組長(zhǎng)。她首次提出了可逆化預(yù)訓(xùn)練神經(jīng)網(wǎng)絡(luò)方法,實(shí)現(xiàn)了大型預(yù)訓(xùn)練模型的極低顯存微調(diào)。她在這一領(lǐng)域的代表工作包括Re2TAL(CVPR 2023)、Dr2Net (CVPR 2024)等。
  • 個(gè)人主頁(yè):https://zhao-chen.com/。
  • 余濟(jì)聞:北京大學(xué)信息工程學(xué)院碩士生,主要研究方向是生成式擴(kuò)散模型。
  • 趙世杰:字節(jié)跳動(dòng)多媒體實(shí)驗(yàn)室研究員,負(fù)責(zé)視頻處理與增強(qiáng)課題組。
  • 陳杰:北京大學(xué)信息工程學(xué)院副教授,主要研究方向是計(jì)算機(jī)視覺(jué)與模式識(shí)別和AI4Science。
  • 個(gè)人主頁(yè):https://aimia-pku.github.io

  • 張?。罕本┐髮W(xué)信息工程學(xué)院副教授,主要研究方向是視覺(jué)內(nèi)容重建與生成、AIGC內(nèi)容鑒偽和版權(quán)保護(hù)。

  • 個(gè)人主頁(yè):https://jianzhang.tech/cn

責(zé)任編輯:張燕妮 來(lái)源: AIGC Studio
相關(guān)推薦

2024-01-16 17:17:30

模型訓(xùn)練

2025-02-05 09:30:00

圖像模型生成

2024-12-05 10:00:31

2021-04-21 10:18:25

人工智能機(jī)器學(xué)習(xí)技術(shù)

2024-07-08 08:47:00

2023-08-15 08:36:20

ChatGPT模型

2023-10-16 12:31:17

人工智能數(shù)據(jù)

2024-04-17 13:22:55

人工智能

2023-08-18 14:31:00

模型論文

2023-04-10 15:44:06

AI圖像

2025-01-06 09:30:00

2024-07-03 12:05:06

Llama模型架構(gòu)

2023-12-05 13:38:11

架構(gòu)模型

2022-07-12 14:50:03

模型研究

2023-12-04 13:23:00

數(shù)據(jù)訓(xùn)練

2022-10-08 12:38:23

模型開(kāi)源

2023-04-28 15:53:55

框架模型

2023-11-17 08:46:26

2022-02-28 10:31:22

人工智能視覺(jué)檢測(cè)

2024-09-12 12:46:36

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)