自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

擴散模型爆火,這是首篇綜述與Github論文分類匯總

人工智能 新聞
本文首次對現有的擴散生成模型(diffusion model)進行了全面的總結分析,還在Github分類匯總了相關論文。

本綜述(Diffusion Models: A Comprehensive Survey of Methods and Applications)來自加州大學 & Google Research 的 Ming-Hsuan Yang、北京大學崔斌實驗室以及 CMU、UCLA、蒙特利爾 Mila 研究院等眾研究團隊,首次對現有的擴散生成模型(diffusion model)進行了全面的總結分析,從 diffusion model 算法細化分類、和其他五大生成模型的關聯以及在七大領域中的應用等方面展開,最后提出了 diffusion model 的現有 limitation 和未來的發(fā)展方向。

圖片

文章鏈接:https://arxiv.org/abs/2209.00796論文分類匯總 github 鏈接:https://github.com/YangLing0818/Diffusion-Models-Papers-Survey-Taxonomy

介紹

擴散模型(diffusion models)是深度生成模型中新的 SOTA。擴散模型在圖片生成任務中超越了原 SOTA:GAN,并且在諸多應用領域都有出色的表現,如計算機視覺,NLP、波形信號處理、多模態(tài)建模、分子圖建模、時間序列建模、對抗性凈化等。此外,擴散模型與其他研究領域有著密切的聯系,如穩(wěn)健學習、表示學習、強化學習。然而,原始的擴散模型也有缺點,它的采樣速度慢,通常需要數千個評估步驟才能抽取一個樣本;它的最大似然估計無法和基于似然的模型相比;它泛化到各種數據類型的能力較差。如今很多研究已經從實際應用的角度解決上述限制做出了許多努力,或從理論角度對模型能力進行了分析。

然而,現在缺乏對擴散模型從算法到應用的最新進展的系統(tǒng)回顧。為了反映這一快速發(fā)展領域的進展,我們對擴散模型進行了首個全面綜述。我們設想我們的工作將闡明擴散模型的設計考慮和先進方法,展示其在不同領域的應用,并指出未來的研究方向。此綜述的概要如下圖所示:

圖片

?

盡管 diffusion model 在各類任務中都有著優(yōu)秀的表現,它仍還有自己的缺點,并有諸多研究對 diffusion model 進行了改善。為了系統(tǒng)地闡明 diffusion model 的研究進展,我們總結了原始擴散模型的三個主要缺點,采樣速度慢,最大化似然差、數據泛化能力弱,并提出將的 diffusion models 改進研究分為對應的三類:采樣速度提升、最大似然增強和數據泛化增強。我們首先說明改善的動機,再根據方法的特性將每個改進方向的研究進一步細化分類,從而清楚的展現方法之間的聯系與區(qū)別。在此我們僅選取部分重要方法為例, 我們的工作中對每類方法都做了詳細的介紹,內容如圖所示:

圖片

在分析完三類擴散模型后,我們將介紹其他的五種生成模型 GAN,VAE,Autoregressive model, Normalizing flow, Energy-based model??紤]到擴散模型的優(yōu)良性質,研究者們已經根據其特性將 diffusion model 與其他生成模型結合,所以為了進一步展現 diffusion model 的特點和改進工作,我們詳細地介紹了 diffusion model 和其他生成模型的結合的工作并闡明了在原始生成模型上的改進之處。Diffusion model 在諸多領域都有著優(yōu)異的表現,并且考慮到不同領域的應用中 diffusion model 產生了不同的變形,我們系統(tǒng)地介紹了 diffusion model 的應用研究,其中包含如下領域:計算機視覺,NLP、波形信號處理、多模態(tài)建模、分子圖建模、時間序列建模、對抗性凈化。

對于每個任務,我們定義了該任務并介紹利用擴散模型處理任務的工作,我們將本項工作的主要貢獻總結如下

  • 新的分類方法:我們對擴散模型和其應用提出了一種新的、系統(tǒng)的分類法。具體的我們將模型分為三類:采樣速度增強、最大似然估計增強、數據泛化增強。進一步地,我們將擴散模型的應用分為七類:計算機視覺,NLP、波形信號處理、多模態(tài)建模、分子圖建模、時間序列建模、對抗性凈化。
  • 全面的回顧:我們首次全面地概述了現代擴散模型及其應用。我們展示了每種擴散模型的主要改進,和原始模型進行了必要的比較,并總結了相應的論文。對于擴散模型的每種類型的應用,我們展示了擴散模型要解決的主要問題,并說明它們如何解決這些問題。
  • 未來研究方向:我們對未來研究提出了開放型問題,并對擴散模型在算法和應用方面的未來發(fā)展提供了一些建議。

擴散模型基礎

生成式建模的一個核心問題是模型的靈活性和可計算性之間的權衡。擴散模型的基本思想是正向擴散過程來系統(tǒng)地擾動數據中的分布,然后通過學習反向擴散過程恢復數據的分布,這樣就了產生一個高度靈活且易于計算的生成模型。

A.Denoising Diffusion Probabilistic Models(DDPM)

一個 DDPM 由兩個參數化馬爾可夫鏈組成,并使用變分推斷以在有限時間后生成與原始數據分布一致的樣本。前向鏈的作用是擾動數據,它根據預先設計的噪聲進度向數據逐漸加入高斯噪聲,直到數據的分布趨于先驗分布,即標準高斯分布。反向鏈從給定的先驗開始并使用參數化的高斯轉換核,學習逐步恢復原數據分布。用圖片表示原始數據及其分布, 則前向鏈的分布是可由下式表達:

圖片

這說明前向鏈是馬爾可夫過程,x_t 是加入 t 步噪音后的樣本,β_t 是事先給定的控制噪聲進度的參數。當圖片趨于 1 時,x_T 可以近似認為服從標準高斯分布。當β_t 很小時,逆向過程的轉移核可以近似認為也是高斯的:

圖片

我們可以將變分下界作為損失函數進行學習:

圖片

B.Score-Based Generative Models(SGM)

上述 DDPM 可以視作 SGM 的離散形式。SGM 構造一個隨機微分方程(SDE)來平滑的擾亂數據分布,將原始數據分布轉化到已知的先驗分布:

圖片

和一個相應的逆向 SDE,來將先驗分布變換回原始數據分布:

圖片

因此,要逆轉擴散過程并生成數據,我們需要的唯一信息就是在每個時間點的分數函數。利用 score-matching 的技巧我們可以通過如下損失函數來學習分數函數:

圖片

對兩種方法的進一步介紹和兩者關系的介紹請參見我們的文章。

原始擴散模型的三個主要缺點,采樣速度慢,最大化似然差、數據泛化能力弱。最近許多研究都在解決這些缺點,因此我們將改進的擴散模型分為三類:采樣速度提升、最大似然增強和數據泛化增強。在接下來的三、四、五節(jié)我們將對這三類模型進行詳細的介紹。

采樣加速方法

在應用時,為了讓新樣本的質量達到最佳,擴散模型往往需要進行成千上萬步計算來獲取一個新樣本。這限制了 diffusion model 的實際應用價值,因為在實際應用時,我們往往需要產生大量的新樣本,來為下一步處理提供材料。研究者們在提高 diffusion model 采樣速度上進行了大量的研究。我們對這些研究進行了詳細的闡述。我們將其細化分類為三種方法:Discretization Optimization,Non-Markovian Process,Partial Sampling。

A.Discretization Optimization 方法優(yōu)化求解 diffusion SDE 的方法。因為現實中求解復雜 SDE 只能使用離散解來逼近真正的解,所以該類方法試圖優(yōu)化 SDE 的離散化方法,在保證樣本質量的同時減少離散步數。SGM 提出了一個通用的方法來求解逆向過程,即對前向和后向過程采取相同的離散方法。如果給定了前向 SDE 的離散方式:

圖片

那么我們就可以以相同的方式離散化逆向 SDE:

圖片

這種方法比樸素 DDPM 效果略好一點。進一步,SGM 向 SDE 求解器中加入了一個矯正器,從而讓每一步生成的樣本都有正確的分布。在求解的每一步,求解器給出一個樣本后,矯正器都使用馬爾可夫鏈蒙特卡羅方法來矯正剛生成的樣本的分布。實驗表明向求解器中加入矯正器比直接增加求解器的步數效率更高。

B.Non-Markovian Process 方法突破了原有 Markovian Process 的限制,其逆過程的每一步可以依賴更多以往的樣本來進行預測新樣本,所以在步長較大時也能做出較好的預測,從而加速采樣過程。其中主要的工作 DDIM,不再假設前向過程是馬爾可夫過程,而是服從如下分布:

圖片

DDIM 的采樣過程可以視為離散化的神經常微分方程,其采樣過程更高效,并且支持樣本的內插。進一步的研究發(fā)現 DDIM 可以視作流形上擴散模型 PNDM 的特例。

C.Partial Sampling 方法通過在 generation process 中忽略一部分的時間節(jié)點,而只使用剩下的時間節(jié)點來生成樣本,直接減少了采樣時間。例如,Progressive Distillation 從訓練好的擴散模型中蒸餾出效率更高的擴散模型。對于訓練好的一個擴散模型,Progressive Distillation 會從新訓練一個擴散模型,使新的擴散模型的一步對應于訓練好的擴散模型的兩步,這樣新模型就可以省去老模型一半的采樣過程。具體算法如下:

圖片

不斷循環(huán)這個蒸餾過程就能讓采樣步驟指數級下降。

最大似然估計加強

擴散模型在最大似然估計的表現差于基于似然函數的生成模型,但最大化似然估計在諸多應用場景都有重要意義,比如圖片壓縮, 半監(jiān)督學習, 對抗性凈化。由于對數似然難以直接計算,研究主要集中在優(yōu)化和分析變分下界(VLB)。我們對提高擴散模型最大似然估計的模型進行了詳細的闡述。我們將其細化分類為三類方法:Objectives Designing,Noise Schedule Optimization,Learnable Reverse Variance。

A.Objectives Designing 方法利用擴散 SDE 推倒出生成數據的對數似然與分數函數匹配的損失函數的關系。這樣通過適當設計損失函數,就可以最大化 VLB 和對數似然。Song et al. 證明了可以設計損失函數的權重函數,使得 plug-in reverse SDE 生成樣本的似然函數值小于等于損失函數值,即損失函數是似然函數的上界。分數函數擬合的損失函數如下:

圖片

我們只需將權重函數λ(t)設為擴散系數 g(t)即可讓損失函數成為似然函數的 VLB,即:

圖片

?B.Noise Schedule Optimization 通過設計或學習前向過程的噪聲進度來增大 VLB。VDM 證明了當離散步數接近無窮時,損失函數完全由信噪比函數 SNR(t)的端點決定:

圖片

那么在離散步數接近無窮時,可以通過學習信噪比函數 SNR(t)的端點最優(yōu)化 VLB,而通過學習信噪比函數中間部分的函數值來實現模型其他方面的改進。

C.Learnable Reverse Variance 方法學習反向過程的方差,從而較少擬合誤差,可以有效地最大化 VLB。Analytic-DPM 證明,在 DDPM 和 DDIM 中存在反向過程中的最優(yōu)期望和方差:

圖片

使用上述公式和訓練好的分數函數,在給定前向過程的條件下,最優(yōu)的 VLB 可以近似達到。

數據泛化增強

擴散模型假設數據存在于歐幾里得空間,即具有平面幾何形狀的流形,并添加高斯噪聲將不可避免地將數據轉換為連續(xù)狀態(tài)空間,所以擴散模型最初只能處理圖片等連續(xù)性數據,直接應用離散數據或其他數據類型的效果較差。這限制了擴散模型的應用場景。數個研究工作將擴散模型推廣到適用于其他數據類型的模型,我們對這些方法進行了詳細地闡釋。我們將其細化分類為兩類方法:Feature Space Unification,Data-Dependent Transition Kernels。

A.Feature Space Unification 方法將數據轉化到統(tǒng)一形式的 latent space,然后再 latent space 上進行擴散。LSGM 提出將數據通過 VAE 框架先轉換到連續(xù)的 latent space 上后再在其上進行擴散。這個方法的難點在于如何同時訓練 VAE 和擴散模型。LSGM 表明由于潛在先驗是 intractable 的,分數匹配損失不再適用。LSGM 直接使用 VAE 中傳統(tǒng)的損失函數 ELBO 作為損失函數,并導出了 ELBO 和分數匹配的關系:

圖片

該式在忽略常數的意義下成立。通過參數化擴散過程中樣本的分數函數,LSGM 可以高效的學習和優(yōu)化 ELBO。

B.Data-Dependent Transition Kernels 方法根據數據類型的特點設計 diffusion process 中的 transition kernels,使擴散模型可以直接應用于特定的數據類型。D3PM 為離散型數據設計了 transition kernel,可以設為 lazy random-walk,absorbing state 等。GEODIFF 為 3D 分子圖數據設計了平移 - 旋轉不變的圖神經網絡,并且證明了具有不變性的初分布和 transition kernel 可以導出具有不變性的邊緣分布。假設 T 是一個平移 - 旋轉變換,如:

圖片

那么生成的樣本分布也有平移 - 旋轉不變性:

圖片

和其他生成模型的聯系在下面的每個小節(jié)中,我們首先介紹其他五類重要的生成模型,并分析它們的優(yōu)勢和局限性。然后我們介紹了擴散模型是如何與它們聯系起來的,并說明通過結合擴散模型來改進這些生成模型。VAE,GAN,Autoregressive model, Normalizing flow, Energy-based model 和擴散模型的聯系如下圖所示:

圖片

?

  1. DDPM 可以視作層次馬爾可夫 VAE(hierarchical Markovian VAE)。但 DDPM 和一般的 VAE 也有區(qū)別。DDPM 作為 VAE,它的 encoder 和 decoder 都服從高斯分布、有馬爾科夫行;其隱變量的維數和數據維數相同;decoder 的所有層都共用一個神經網絡。
  2. DDPM 可以幫助 GAN 解決訓練不穩(wěn)定的問題。因為數據是在高維空間中的低維流形中,所以 GAN 生成數據的分布和真實數據的分布重合度低,導致訓練不穩(wěn)定。擴散模型提供了一個系統(tǒng)地增加噪音的過程,通過擴散模型向生成的數據和真實數據添加噪音,然后將加入噪音的數據送入判別器,這樣可以高效地解決 GAN 無法訓練、訓練不穩(wěn)定的問題。
  3. Normalizing flow 通過雙射函數將數據轉換到先驗分布,這樣的作法限制了 Normalizing flow 的表達能力,導致應用效果較差。類比擴散模型向 encoder 中加入噪聲,可以增加 Normalizing flow 的表達能力,而從另一個視角看,這樣的做法是將擴散模型推廣到前向過程也可學習的模型。
  4. Autoregressive model 在需要保證數據有一定的結構,這導致設計和參數化自回歸模型非常困難。擴散模型的訓練啟發(fā)了自回歸模型的訓練,通過特定的訓練方式避免了設計的困難。
  5. Energy-based model 直接對原始數據的分布建模,但直接建模導致學習和采樣都比較困難。通過使用擴散恢復似然,模型可以先對樣本加入微小的噪聲,再從有略微噪聲的樣本分布來推斷原始樣本的分布,使的學習和采樣過程更簡單和穩(wěn)定。

擴散模型的應用

在本節(jié)中,我們分別介紹了擴散模型在計算機視覺、自然語言處理、波形信號處理、多模態(tài)學習、分子圖生成、時間序列以及對抗學習等七大應用方向中的應用,并對每類應用中的方法進行了細分并解析。例如在計算機視覺中可以用 diffusion model 進行圖像補全修復(RePaint):

圖片

在多模態(tài)任務中可以用 diffusion model 進行文本到圖像的生成(GLIDE):

圖片

還可以在分子圖生成中用 diffusion model 進行藥物分子和蛋白質分子的生成(GeoDiff):

圖片

應用分類匯總見表:

圖片

?未來研究方向

  1. 應用假設再檢驗。我們需要檢查我們在應用中普遍接受的假設。例如,實踐中普遍認為擴散模型的前向過程會將數據轉換為標準高斯分布,但事實并非如此,更多的前向擴散步驟會使最終的樣本分布與標準高斯分布更接近,與采樣過程一致;但更多的前向擴散步驟也會使估計分數函數更加困難。理論的條件很難獲得,因此在實踐中操作中會導致理論和實踐的不匹配。我們應該意識到這種情況并設計適當的擴散模型。
  2. 從離散時間到連續(xù)時間。由于擴散模型的靈活性,許多經驗方法可以通過進一步分析得到加強。通過將離散時間的模型轉化到對應的連續(xù)時間模型,然后再設計更多、更好的離散方法,這樣的研究思路有前景。
  3. 新的生成過程。擴散模型通過兩種主要方法生成樣本:一是離散化反向擴散 SDE,然后通過離散的反向 SDE 生成樣本;另一個是使用逆過程中馬爾可夫性質對樣本逐步去噪。然而,對于一些任務,在實踐中很難應用這些方法來生成樣本。因此,需要進一步研究新的生成過程和視角。
  4. 泛化到更復雜的場景和更多的研究領域。雖然目前 diffusion model 已經應用到多個場景中,但是大多數局限于單輸入單輸出的場景,將來可以考慮將其應用到更復雜的場景,比如 text-to-audiovisual speech synthesis。也可以考慮和更多的研究領域相結合。
責任編輯:張燕妮 來源: 機器之心
相關推薦

2022-09-13 15:40:56

模型分析

2023-10-23 12:43:05

模型訓練

2023-07-04 12:57:57

多模態(tài)語言模型

2024-02-22 09:26:33

AI模型

2024-05-08 09:37:36

AI論文

2025-03-25 09:04:12

2024-03-11 09:37:01

模型圖片編輯

2024-03-07 14:55:18

模型論文

2024-05-13 10:38:08

2024-09-09 09:00:00

2024-05-10 07:58:03

2024-02-29 12:56:00

AI訓練

2025-01-13 08:20:00

AI模型訓練

2025-02-21 08:56:49

2021-11-19 17:25:03

AI 數據人工智能

2023-07-31 11:43:17

研究論文

2022-12-12 09:01:03

2023-02-14 09:28:35

2024-12-27 13:30:00

2023-04-03 09:56:22

模型系統(tǒng)
點贊
收藏

51CTO技術棧公眾號