自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌 Fluid 顛覆共識:兩大因素被發(fā)現(xiàn),AI 文生圖領(lǐng)域自回歸模型超越擴(kuò)散模型

人工智能
科技媒體 The Decoder 10 月 22 日發(fā)布博文,報道稱谷歌 DeepMind 團(tuán)隊攜手麻省理工學(xué)院(MIT),推出了全新的“Fluid”模型,在規(guī)模達(dá)到 105 億參數(shù)時候,能取得最佳的文生圖效果。

10 月 23 日消息,科技媒體 The Decoder 昨日(10 月 22 日)發(fā)布博文,報道稱谷歌 DeepMind 團(tuán)隊攜手麻省理工學(xué)院(MIT),推出了全新的“Fluid”模型,在規(guī)模達(dá)到 105 億參數(shù)時候,能取得最佳的文生圖效果。

目前在文生圖領(lǐng)域,行業(yè)內(nèi)的一個共識是自回歸模型(Autoregressive Models)不如擴(kuò)散模型(Diffusion Models)。

IT之家簡要介紹下這兩種模型:

  • 擴(kuò)散模型 (Diffusion Models): 這是一種最近非常熱門的內(nèi)容生成技術(shù),它模擬的是信號從噪聲中逐漸恢復(fù)的過程。擴(kuò)散模型通過迭代地減少隨機噪聲來生成高質(zhì)量的圖像、文本和其他形式的數(shù)據(jù)。比如應(yīng)用于圖像生成領(lǐng)域中的 DDPM(離散擴(kuò)散概率模型)及其變體就有很高的關(guān)注度。
  • 自回歸模型 (Autoregressive Models): 自回歸模型預(yù)測序列中的下一個元素時,依賴于前面的元素。在文本生成領(lǐng)域,像基于 Decoder-only 的 GPT 系列(如 GPT-3、GPT-4)就是典型的自回歸模型,它們逐詞預(yù)測下一個詞,從而生成連貫的文本段落。

谷歌 DeepMind 和 MIT 團(tuán)隊通過深入研究,發(fā)現(xiàn)了使用連續(xù) tokens(非離散 tokens)和采用隨機生成順序(非固定順序)兩個關(guān)鍵設(shè)計因素,顯著提高了自回歸模型的性能和可擴(kuò)展性。

團(tuán)隊表示在離散 tokens 為每個圖像區(qū)域分配一個來自有限詞匯的代碼,這會導(dǎo)致信息丟失,而連續(xù) tokens 可以更精確地圖像信息存儲,減少信息丟失。這讓模型能夠更好地重建圖像,提高視覺質(zhì)量。

此外大多數(shù)自回歸模型以固定順序生成圖像,而 Fluid 采用隨機生成順序,讓模型能夠在每一步預(yù)測任意位置的多個像素,這種方法在理解整體圖像結(jié)構(gòu)時表現(xiàn)更為出色。

Fluid 模型結(jié)合了連續(xù)標(biāo)記和隨機生成順序后,當(dāng)其規(guī)模擴(kuò)大到 105 億參數(shù)時,F(xiàn)luid 在重要基準(zhǔn)測試中超越了 Stable Diffusion 3 擴(kuò)散模型和谷歌此前的 Parti 自回歸模型。

與 Parti 相比,F(xiàn)luid 顯示出顯著的改進(jìn):擁有 200 億參數(shù)的 Parti 在 MS-COCO 上達(dá)到了 7.23 的 FID 分?jǐn)?shù),而僅有 3.69 億參數(shù)的小型 Fluid 模型卻達(dá)到了相同的分?jǐn)?shù)。

責(zé)任編輯:龐桂玉 來源: IT之家
相關(guān)推薦

2024-05-10 07:58:03

2024-11-12 13:10:49

2024-04-26 12:51:48

2025-03-20 11:28:34

2023-12-20 13:34:56

2022-05-25 10:28:35

模型AI

2024-11-04 15:54:16

2024-03-11 00:20:00

模型論文

2025-02-27 13:45:00

2024-03-28 13:14:00

數(shù)據(jù)訓(xùn)練

2025-03-25 09:04:12

2024-04-17 13:22:55

人工智能

2023-12-12 12:43:04

AI模型

2022-08-03 11:50:29

DeepMindAI瘦身

2022-02-17 08:25:59

犬牙交錯雙塔奇兵模型

2024-10-21 11:15:00

2023-11-17 08:46:26

2023-05-26 17:15:40

AI搜索
點贊
收藏

51CTO技術(shù)棧公眾號