自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OmniTokenizer-視覺tokenizer生成

發(fā)布于 2025-1-9 10:15
瀏覽
0收藏

本文介紹一種視覺tokenizer的生成。

AIGC生成模型在人工智能領域發(fā)展迅速,視覺生成主要有基于語言模型和擴散模型兩種范式,而tokenizer是其核心組件。現(xiàn)有tokenizer分別針對圖像或視頻輸入設計,存在應用靈活性和數(shù)據(jù)可擴展性的局限。因此需要一種聯(lián)合圖像 - 視頻標記器,以實現(xiàn)從兩種數(shù)據(jù)中聯(lián)合學習,緩解單模態(tài)數(shù)據(jù)稀缺問題,并提高模型的通用性和可擴展性。

今天介紹一種OmniTokenizer方法,感興趣的小伙伴可以看看原文:https://arxiv.org/abs/2406.09399

模型架構(gòu)

OmniTokenizer-視覺tokenizer生成-AI.x社區(qū)

上圖為OmniTokenize架構(gòu)圖,從中可以看出:

  • OmniTokenizer 由 patch 嵌入層和獨立的時空注意力塊組成。采用時空解耦架構(gòu),在空間維度使用窗口注意力機制,因其具有局部聚合能力和效率;在時間維度使用因果注意力機制,以捕捉視頻中的運動并確保時間連貫性。
  • 輸入數(shù)據(jù)首先進行 Patchify 操作,將圖像和視頻幀分別分割為不重疊的塊并投影得到嵌入,然后通過時空分離的編碼器獲取潛在代碼,解碼器與編碼器對稱,最后通過線性投影層將時空標記映射回像素空間。

訓練過程

OmniTokenizer-視覺tokenizer生成-AI.x社區(qū)

漸進式訓練策略,包括兩個連續(xù)階段:

  • 首先在固定分辨率的圖像數(shù)據(jù)上進行訓練,以建立對靜態(tài)視覺信息的理解,即基礎的空間編碼能力
  • 然后引入視頻數(shù)據(jù),在多分辨率上進行聯(lián)合訓練,學習時間動態(tài)信息,從而使模型能夠準確捕捉單幀的空間細節(jié)和視頻序列的時間關系。訓練過程中使用向量量化目標函數(shù),并在后期通過 KL 散度進行微調(diào)

實驗結(jié)果

OmniTokenizer-視覺tokenizer生成-AI.x社區(qū)

在 ImageNet、CelebA - HQ 和 FFHQ 等圖像數(shù)據(jù)集以及 UCF - 101 和 Moments - in - Time 等視頻數(shù)據(jù)集上評估。在相同壓縮率和碼本大小下,OmniTokenizer - VQVAE 在圖像數(shù)據(jù)集上的重建 FID 指標優(yōu)于現(xiàn)有方法,在 ImageNet 上達到 1.11,比之前的 SOTA 方法 ViT - VQGAN 提高了 13%;OmniTokenizer - VAE 進一步將 FID 降低到 0.69。在視頻數(shù)據(jù)集上也取得了最佳的重建結(jié)果。


文轉(zhuǎn)載自公眾號瓦力算法學研所,作者:喜歡瓦力的卷卷

原文鏈接:??https://mp.weixin.qq.com/s/k9YCnDS0nUMmC8eJSiEpLw??

收藏
回復
舉報
回復
相關推薦