自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

統(tǒng)治擴(kuò)散模型的U-Net要被取代了,謝賽寧等引入Transformer提出DiT

人工智能 新聞
來自 UC 伯克利的 William Peebles 以及紐約大學(xué)的謝賽寧撰文揭秘?cái)U(kuò)散模型中架構(gòu)選擇的意義,并為未來的生成模型研究提供經(jīng)驗(yàn)基線。

近幾年,在 Transformer 的推動(dòng)下,機(jī)器學(xué)習(xí)正在經(jīng)歷復(fù)興。過去五年中,用于自然語言處理、計(jì)算機(jī)視覺以及其他領(lǐng)域的神經(jīng)架構(gòu)在很大程度上已被 transformer 所占據(jù)。

不過還有許多圖像級(jí)生成模型仍然不受這一趨勢(shì)的影響,例如過去一年擴(kuò)散模型在圖像生成方面取得了驚人的成果,幾乎所有這些模型都使用卷積 U-Net 作為主干。這有點(diǎn)令人驚訝!在過去的幾年中,深度學(xué)習(xí)的大事件一直是跨領(lǐng)域的 Transformer 的主導(dǎo)地位。U-Net 或卷積是否有什么特別之處使它們?cè)跀U(kuò)散模型中表現(xiàn)得如此出色?

將 U-Net 主干網(wǎng)絡(luò)首次引入擴(kuò)散模型的研究可追溯到 Ho 等人,這種設(shè)計(jì)模式繼承了自回歸生成模型 PixelCNN++,只是稍微進(jìn)行了一些改動(dòng)。而 PixelCNN++ 由卷積層組成,其包含許多的 ResNet 塊。其與標(biāo)準(zhǔn)的 U-Net 相比,PixelCNN++ 附加的空間自注意力塊成為 transformer 中的基本組件。不同于其他人的研究,Dhariwal 和 Nichol 等人消除了 U-Net 的幾種架構(gòu)選擇,例如使用自適應(yīng)歸一化層為卷積層注入條件信息和通道計(jì)數(shù)。

本文中來自 UC 伯克利的 William Peebles 以及紐約大學(xué)的謝賽寧撰文《 Scalable Diffusion Models with Transformers 》,目標(biāo)是揭開擴(kuò)散模型中架構(gòu)選擇的意義,并為未來的生成模型研究提供經(jīng)驗(yàn)基線。該研究表明,U-Net 歸納偏置對(duì)擴(kuò)散模型的性能不是至關(guān)重要的,并且可以很容易地用標(biāo)準(zhǔn)設(shè)計(jì)(如 transformer)取代。

這一發(fā)現(xiàn)表明,擴(kuò)散模型可以從架構(gòu)統(tǒng)一趨勢(shì)中受益,例如,擴(kuò)散模型可以繼承其他領(lǐng)域的最佳實(shí)踐和訓(xùn)練方法,保留這些模型的可擴(kuò)展性、魯棒性和效率等有利特性。標(biāo)準(zhǔn)化架構(gòu)也將為跨領(lǐng)域研究開辟新的可能性。

圖片

  • 論文地址:https://arxiv.org/pdf/2212.09748.pdf
  • 項(xiàng)目地址:https://github.com/facebookresearch/DiT
  • 論文主頁(yè):https://www.wpeebles.com/DiT

該研究專注于一類新的基于 Transformer 的擴(kuò)散模型:Diffusion Transformers(簡(jiǎn)稱 DiTs)。DiTs 遵循 Vision Transformers (ViTs) 的最佳實(shí)踐,有一些小但重要的調(diào)整。DiT 已被證明比傳統(tǒng)的卷積網(wǎng)絡(luò)(例如 ResNet )具有更有效地?cái)U(kuò)展性。

具體而言,本文研究了 Transformer 在網(wǎng)絡(luò)復(fù)雜度與樣本質(zhì)量方面的擴(kuò)展行為。研究表明,通過在潛在擴(kuò)散模型 (LDM) 框架下構(gòu)建 DiT 設(shè)計(jì)空間并對(duì)其進(jìn)行基準(zhǔn)測(cè)試,其中擴(kuò)散模型在 VAE 的潛在空間內(nèi)進(jìn)行訓(xùn)練,可以成功地用 transformer 替換 U-Net 主干。本文進(jìn)一步表明 DiT 是擴(kuò)散模型的可擴(kuò)展架構(gòu):網(wǎng)絡(luò)復(fù)雜性(由 Gflops 測(cè)量)與樣本質(zhì)量(由 FID 測(cè)量)之間存在很強(qiáng)的相關(guān)性。通過簡(jiǎn)單地?cái)U(kuò)展 DiT 并訓(xùn)練具有高容量主干(118.6 Gflops)的 LDM,可以在類條件 256 × 256 ImageNet 生成基準(zhǔn)上實(shí)現(xiàn) 2.27 FID 的最新結(jié)果。

Diffusion Transformers

DiTs 是一種用于擴(kuò)散模型的新架構(gòu),目標(biāo)是盡可能忠實(shí)于標(biāo)準(zhǔn) transformer 架構(gòu),以保留其可擴(kuò)展性。DiT 保留了 ViT 的許多最佳實(shí)踐,圖 3 顯示了完整 DiT 體系架構(gòu)。

圖片

DiT 的輸入為空間表示 z(對(duì)于 256 × 256 × 3 圖像,z 的形狀為 32 × 32 × 4)。DiT 的第一層是 patchify,該層通過將每個(gè) patch 線性嵌入到輸入中,以此將空間輸入轉(zhuǎn)換為一個(gè) T token 序列。patchify 之后,本文將標(biāo)準(zhǔn)的基于 ViT 頻率的位置嵌入應(yīng)用于所有輸入 token。

patchify 創(chuàng)建的 token T 的數(shù)量由 patch 大小超參數(shù) p 決定。如圖 4 所示,將 p 減半將使 T 翻四倍,因此至少能使 transformer Gflops 翻四倍。本文將 p = 2,4,8 添加到 DiT 設(shè)計(jì)空間。

圖片

DiT 塊設(shè)計(jì):在 patchify 之后,輸入 token 由一系列 transformer 塊處理。除了噪聲圖像輸入之外,擴(kuò)散模型有時(shí)還會(huì)處理額外的條件信息,例如噪聲時(shí)間步長(zhǎng) t、類標(biāo)簽 c、自然語言等。本文探索了四種以不同方式處理?xiàng)l件輸入的 transformer 塊變體。這些設(shè)計(jì)對(duì)標(biāo)準(zhǔn) ViT 塊設(shè)計(jì)進(jìn)行了微小但重要的修改。所有模塊的設(shè)計(jì)如圖 3 所示。

本文嘗試了四種因模型深度和寬度而異的配置:DiT-S、DiT-B、DiT-L 和 DiT-XL。這些模型配置范圍從 33M 到 675M 參數(shù),Gflops 從 0.4 到 119 。

實(shí)驗(yàn)

研究者訓(xùn)練了四個(gè)最高 Gflop 的 DiT-XL/2 模型,每個(gè)模型使用不同的 block 設(shè)計(jì) ——in-context(119.4Gflops)、cross-attention(137.6Gflops)、adaptive layer norm(adaLN,118.6Gflops)或 adaLN-zero(118.6Gflops)。然后在訓(xùn)練過程中測(cè)量 FID,圖 5 為結(jié)果。

擴(kuò)展模型大小和 patch 大小。圖 2(左)給出了每個(gè)模型的 Gflops 和它們?cè)?400K 訓(xùn)練迭代時(shí)的 FID 概況。可以發(fā)現(xiàn),增加模型大小和減少 patch 大小會(huì)對(duì)擴(kuò)散模型產(chǎn)生相當(dāng)大的改進(jìn)。

圖片

圖 6(頂部)展示了 FID 是如何隨著模型大小的增加和 patch 大小保持不變而變化的。在四種設(shè)置中,通過使 Transformer 更深、更寬,訓(xùn)練的所有階段都獲得了 FID 的明顯提升。同樣,圖 6(底部)展示了 patch 大小減少和模型大小保持不變時(shí)的 FID。研究者再次觀察到,在整個(gè)訓(xùn)練過程中,通過簡(jiǎn)單地?cái)U(kuò)大 DiT 處理的 token 數(shù)量,并保持參數(shù)的大致固定,F(xiàn)ID 會(huì)得到相當(dāng)大的改善。

圖片

圖 8 中展示了 FID-50K 在 400K 訓(xùn)練步數(shù)下與模型 Gflops 的對(duì)比:

圖片

SOTA 擴(kuò)散模型 256×256 ImageNet。在對(duì)擴(kuò)展分析之后,研究者繼續(xù)訓(xùn)練最高 Gflop 模型 DiT-XL/2,步數(shù)為 7M。圖 1 展示了該模型的樣本,并與類別條件生成 SOTA 模型進(jìn)行比較,表 2 中展示了結(jié)果。

圖片

當(dāng)使用無分類器指導(dǎo)時(shí),DiT-XL/2 優(yōu)于之前所有的擴(kuò)散模型,將之前由 LDM 實(shí)現(xiàn)的 3.60 的最佳 FID-50K 降至 2.27。如圖 2(右)所示,相對(duì)于 LDM-4(103.6 Gflops)這樣的潛在空間 U-Net 模型來說,DiT-XL/2(118.6 Gflops)計(jì)算效率高得多,也比 ADM(1120 Gflops)或 ADM-U(742 Gflops)這樣的像素空間 U-Net 模型效率高很多。

圖片

表 3 展示了與 SOTA 方法的比較。XL/2 在這一分辨率下再次勝過之前的所有擴(kuò)散模型,將 ADM 之前取得的 3.85 的最佳 FID 提高到 3.04。

圖片

更多研究細(xì)節(jié),可參考原論文。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2024-02-23 07:10:13

文字渲染Sora人工智能

2024-10-22 17:24:32

2024-02-21 12:19:00

AI模型

2024-10-14 13:20:00

2025-04-27 08:22:49

2022-12-25 13:59:09

模型架構(gòu)

2025-01-20 08:35:00

模型生成AI

2024-10-23 15:05:29

2024-11-15 15:00:00

模型生成

2025-04-08 09:10:00

模型訓(xùn)練AI

2024-12-23 13:50:00

數(shù)據(jù)訓(xùn)練模型

2024-12-23 07:15:00

多模態(tài)大模型MLLM人工智能

2018-09-07 18:41:52

OracleMySQLMariaDB

2024-12-23 12:37:34

2024-06-27 13:10:21

2022-10-13 18:54:57

JavaScriptQwikReact

2019-03-10 21:24:06

微軟瀏覽器Windows

2019-04-02 10:39:42

WiFiLiFi5G

2020-06-09 10:15:21

模型人工智能自然語言

2025-04-03 11:11:50

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)