自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

NeurIPS | 對(duì)比采樣鏈:讓擴(kuò)散模型更快、更準(zhǔn)、更清晰的秘密武器

人工智能
擴(kuò)散模型在使用數(shù)值求解方法進(jìn)行采樣時(shí)?不可避免地引入離散化誤差,導(dǎo)致生成樣本與真實(shí)數(shù)據(jù)分布之間存在偏差。現(xiàn)有方法嘗試減少采樣步驟以加速生成,但會(huì)導(dǎo)致圖像質(zhì)量下降。

論文 Contrastive Sampling Chains in Diffusion Models 的精煉解讀。

一眼概覽

該論文提出了一種 對(duì)比采樣鏈(Contrastive Sampling Chains, CSC) 方法,通過(guò)對(duì)比損失和得分匹配相結(jié)合,優(yōu)化擴(kuò)散模型(DMs)的采樣過(guò)程,從而 減少離散化誤差,提高生成圖像的質(zhì)量,同時(shí)提升采樣速度。

核心問(wèn)題

擴(kuò)散模型在使用數(shù)值求解方法進(jìn)行采樣時(shí) 不可避免地引入離散化誤差,導(dǎo)致生成樣本與真實(shí)數(shù)據(jù)分布之間存在偏差?,F(xiàn)有方法嘗試減少采樣步驟以加速生成,但會(huì)導(dǎo)致圖像質(zhì)量下降。本研究的核心問(wèn)題是:

如何減少離散化誤差,在 不增加計(jì)算開(kāi)銷 的情況下,提高生成圖像的質(zhì)量?

如何在采樣過(guò)程中 使模型生成的分布更接近真實(shí)數(shù)據(jù)分布?

技術(shù)亮點(diǎn)

1. 提出對(duì)比采樣鏈:使用對(duì)比損失構(gòu)建采樣鏈,通過(guò)正樣本對(duì)(同一圖像不同時(shí)間步的采樣結(jié)果)和負(fù)樣本對(duì)(不同圖像的采樣結(jié)果)優(yōu)化模型,使不同時(shí)間步的生成樣本更加一致,從而減少誤差積累。

2. 優(yōu)化 KL 散度上界:理論分析表明,合適的對(duì)比損失和得分匹配組合可作為真實(shí)數(shù)據(jù)分布與模型分布 KL 散度的上界,從而有效減少離散化誤差。

3. 提升質(zhì)量或加速采樣:方法適用于各種 預(yù)訓(xùn)練擴(kuò)散模型(無(wú)論是否使用快速采樣算法),在 相同計(jì)算量下提升圖像質(zhì)量,或在 保持質(zhì)量的同時(shí)減少采樣步驟

方法框架

圖片圖片

論文的方法流程如下:

1. 構(gòu)建對(duì)比采樣鏈

? 在擴(kuò)散模型的采樣過(guò)程中,選擇同一圖像不同時(shí)間步的生成結(jié)果作為正樣本對(duì),不同圖像的生成結(jié)果作為負(fù)樣本對(duì)。

? 使用 MoCov2 預(yù)訓(xùn)練模型 提取 128 維特征并計(jì)算 InfoNCE 對(duì)比損失。

2. 聯(lián)合優(yōu)化損失

        ? 結(jié)合原始得分匹配損失(JSM)和對(duì)比損失(InfoNCE)。

   3. 采用 BPTT 進(jìn)行優(yōu)化

        ? 采用 時(shí)間反向傳播(BPTT) 傳播梯度,優(yōu)化整個(gè)采樣鏈,而非單步優(yōu)化,從而進(jìn)一步減少全局誤差。

實(shí)驗(yàn)結(jié)果速覽

在 CIFAR-10 數(shù)據(jù)集上

結(jié)合 EDM 預(yù)訓(xùn)練模型,在 相同采樣步數(shù)(35 NFEs)下,F(xiàn)ID 從 2.04 降至 1.88(質(zhì)量提升)。

相同 FID(2.04)下,采樣步數(shù)從 35 降至 25(計(jì)算量減少)。

適用于不同快速采樣方法

         在 DPM-Solver、DEIS 等快速采樣方法上應(yīng)用本方法,可在相同計(jì)算量下降低 FID,或在相同 FID 下減少計(jì)算量。

實(shí)用價(jià)值與應(yīng)用

該方法可用于 圖像生成、視頻生成、文本到圖像生成 等任務(wù),尤其適用于:

自動(dòng)駕駛(減少傳感器噪聲,提高環(huán)境感知能力)

醫(yī)學(xué)影像(降低數(shù)據(jù)采樣誤差,提高合成數(shù)據(jù)質(zhì)量)

計(jì)算機(jī)視覺(jué)(提升圖像生成質(zhì)量,提高數(shù)據(jù)增強(qiáng)效果)

開(kāi)放問(wèn)題

1. 對(duì)比采樣鏈能否適用于三維點(diǎn)云生成或視頻生成?

2. 是否可以進(jìn)一步結(jié)合自監(jiān)督學(xué)習(xí),優(yōu)化對(duì)比損失的構(gòu)造方式?

3. 如何在計(jì)算資源受限的情況下,實(shí)現(xiàn)更高效的優(yōu)化策略?

其他

? 論文的官方期刊或會(huì)議來(lái)源:https://proceedings.neurips.cc/paper_files/paper/2023/file/e8ff788779f2e9e74ccd0d6b84607437-Paper-Conference.pdf

? 注:所有免費(fèi)資料獲取鏈接:https://link3.cc/soragpt

責(zé)任編輯:武曉燕 來(lái)源: 萍哥學(xué)AI
相關(guān)推薦

2025-04-25 10:03:12

2013-10-16 09:28:14

亞馬遜AWSSDN

2013-10-16 09:33:36

亞馬遜AWSSDN

2014-01-07 10:46:39

2011-08-11 17:05:26

2018-11-28 13:23:19

Kagglefeatexp特征

2024-07-11 08:34:48

2011-06-15 09:53:05

思杰虛擬化

2022-02-11 10:47:17

CIOIT團(tuán)隊(duì)企業(yè)

2023-05-08 14:54:00

AI任務(wù)HuggingGPT

2019-11-27 10:40:34

數(shù)據(jù)工具CIO

2009-07-28 10:36:58

云計(jì)算Google秘密武器

2019-11-27 10:38:37

數(shù)據(jù)分析數(shù)據(jù)準(zhǔn)備工具

2011-06-02 10:24:11

iTravel蘋(píng)果

2023-02-24 10:26:34

語(yǔ)音AI人工智能

2024-05-07 13:44:57

2015-03-30 16:58:05

秘密武器華為

2024-03-27 00:00:10

勒索軟件攻擊勒索軟件安全

2024-12-18 16:00:00

C++性能優(yōu)化consteval
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)