自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成 原創(chuàng)

發(fā)布于 2024-11-1 16:24
瀏覽
0收藏

DeepSeek開源了一個(gè)僅1.3B大小的多模態(tài)大模型:Janus(兩面神),統(tǒng)一了多模態(tài)理解和生成。通過(guò)將視覺(jué)編碼解耦成獨(dú)立的pathway,同時(shí)僅使用一個(gè)統(tǒng)一的transformer架構(gòu)進(jìn)行處理。Janus在多模態(tài)理解和生成基準(zhǔn)測(cè)試中超越了以往的統(tǒng)一模型,作為一個(gè)多模態(tài)“小”模型具有顯著的優(yōu)勢(shì)。

Paper:??? https://arxiv.org/abs/2410.13848????

Github: ???https://github.com/deepseek-ai/Janus???

Model: https://huggingface.co/deepseek-ai/Janus-1.3B


僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

Janus

Janus 是一個(gè)統(tǒng)一的多模態(tài)理解和生成的大型語(yǔ)言模型(MLLM),它將多模態(tài)理解和生成的視覺(jué)編碼解耦。Janus 基于 DeepSeek-LLM-1.3b-base 構(gòu)建,該模型訓(xùn)練時(shí)使用了大約5000億個(gè)文本token的語(yǔ)料庫(kù)。在多模態(tài)理解方面,它使用 SigLIP-L 作為視覺(jué)編碼器,支持384 x 384像素的圖像輸入。在圖像生成方面,Janus 使用了LlamaGen的tokenizer,并且具有16倍的下采樣率。

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

Janus的訓(xùn)練過(guò)程是分階段進(jìn)行的,以確保模型在多模態(tài)理解和生成任務(wù)上都能達(dá)到高性能:

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

第一階段:訓(xùn)練Adpater和圖像Head

  • 目標(biāo):在這一階段,主要目標(biāo)是在視覺(jué)和語(yǔ)言元素之間建立概念聯(lián)系,使大型語(yǔ)言模型(LLM)能夠理解圖像中顯示的實(shí)體,并具備初步的視覺(jué)生成能力。
  • 訓(xùn)練策略:在這一階段,視覺(jué)編碼器和LLM被保持凍結(jié)狀態(tài),只有理解適配器、生成適配器和圖像頭部中的可訓(xùn)練參數(shù)會(huì)被更新。

第二階段:統(tǒng)一預(yù)訓(xùn)練

  • 目標(biāo):在這一階段,通過(guò)多模態(tài)語(yǔ)料庫(kù)進(jìn)行統(tǒng)一預(yù)訓(xùn)練,使Janus能夠?qū)W習(xí)多模態(tài)理解和生成。
  • 數(shù)據(jù):使用所有類型的訓(xùn)練數(shù)據(jù),包括純文本數(shù)據(jù)、多模態(tài)理解數(shù)據(jù)和視覺(jué)生成數(shù)據(jù)。
  • 訓(xùn)練策略:受到Pixart的啟發(fā),首先使用ImageNet-1k進(jìn)行簡(jiǎn)單的視覺(jué)生成訓(xùn)練,幫助模型掌握基本的像素依賴關(guān)系。然后,使用通用的文本到圖像數(shù)據(jù)增強(qiáng)模型的開放領(lǐng)域視覺(jué)生成能力。

第三階段:監(jiān)督微調(diào)(SFT)

  • 目標(biāo):在這一階段,使用指令調(diào)整數(shù)據(jù)對(duì)預(yù)訓(xùn)練模型進(jìn)行微調(diào),以增強(qiáng)其遵循指令和對(duì)話的能力。
  • 訓(xùn)練策略:除了生成編碼器之外,所有參數(shù)都會(huì)進(jìn)行微調(diào)。
  • 數(shù)據(jù):為了確保Janus在多模態(tài)理解和生成方面的熟練程度,微調(diào)時(shí)不會(huì)對(duì)特定任務(wù)進(jìn)行單獨(dú)模型微調(diào)。相反,使用混合的純文本對(duì)話數(shù)據(jù)、多模態(tài)理解數(shù)據(jù)和視覺(jué)生成數(shù)據(jù),以確保在多種場(chǎng)景下的多功能性。

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

訓(xùn)練細(xì)節(jié):

  • 損失函數(shù):Janus作為一個(gè)自回歸模型,在訓(xùn)練期間簡(jiǎn)單地采用交叉熵?fù)p失函數(shù)。
  • 推理方法:在推理過(guò)程中,模型完全采用next token prediction進(jìn)行推理。對(duì)于純文本理解和多模態(tài)理解,按照預(yù)測(cè)分布順序采樣token。對(duì)于圖像生成,使用CFG(classifier-free guidance, 在訓(xùn)練過(guò)程中,以10%的概率將文本到圖像數(shù)據(jù)中的文本條件替換為pad token,使模型具有無(wú)條件的視覺(jué)生成能力)

作為一個(gè)next token prediction的圖像生成模型,生成效果相當(dāng)不錯(cuò):

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

同時(shí)作為一個(gè)多模態(tài)理解模型,僅1.3B且只有384的輸入分辨率,效果也超出預(yù)期。比如帶有文字的meme圖的理解,甚至也還行:

僅1.3B!Janus 統(tǒng)一多模態(tài)理解和生成-AI.x社區(qū)

可以看出,多模態(tài)大模型生成和理解,越卷越統(tǒng)一;模型尺寸也有著越卷越小的趨勢(shì)。



本文轉(zhuǎn)載自公眾號(hào)思源數(shù)據(jù)科學(xué) 作者:思源Source

原文鏈接:??https://mp.weixin.qq.com/s/MQfmCE--zG6AJ1pFHqZK4A???

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請(qǐng)注明出處,否則將追究法律責(zé)任
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦