自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

字節(jié)多模態(tài)大模型PixelLM:高效像素級推理,無需依賴SA

人工智能
研究團隊在三個benchmark上評測了PixelLM的性能,包括MUSE benchmark, referring segmentation benchmark,以及multi-referring segmentation benchmark. 在multi-referring segmentation benchmark中,研究團隊要求模型在一個問題中連續(xù)地分割出referring segme

多模態(tài)大模型爆發(fā),準(zhǔn)備好進入圖像編輯、自動駕駛和機器人技術(shù)等細(xì)粒度任務(wù)中實際應(yīng)用了嗎?

目前大多數(shù)模型的能力還是局限于生成對整體圖像或特定區(qū)域的文本描述,在像素級理解方面的能力(例如物體分割)相對有限。

針對這個問題,一些工作開始探索借助多模態(tài)大模型來處理用戶的分割指令(例如,“請分割出圖片中富含維生素C的水果”)。

然而,市面上的方法都存在兩個主要缺點:

1) 無法處理涉及多個目標(biāo)對象的任務(wù),而這在現(xiàn)實世界場景中是不可或缺的;

2) 依賴于像SAM這樣的預(yù)訓(xùn)練圖像分割模型,而SAM的一次前向傳播需要的計算量已經(jīng)足夠 Llama-7B產(chǎn)生500多個token了。

為了解決此問題,字節(jié)跳動智能創(chuàng)作團隊聯(lián)合北京交通大學(xué)、北京科技大學(xué)的研究人員提出了首個無需依賴SAM的高效像素級推理大模型PixelLM。

在具體介紹它之前,先來體驗幾組PixelLM實際分割的效果:

相比之前的工作,PixelLM的優(yōu)勢在于:

  • 能夠熟練處理任意數(shù)量的開放域目標(biāo)和多樣化的復(fù)雜推理分割任務(wù)。
  • 避免了額外的、成本高昂的分割模型,提升了效率和對不同應(yīng)用的遷移能力。

進一步,為了支持這一研究領(lǐng)域的模型訓(xùn)練和評估,研究團隊在LVIS數(shù)據(jù)集的基礎(chǔ)之上,借助GPT-4V構(gòu)建了一個面向多目標(biāo)推理分割場景的數(shù)據(jù)集MUSE,它包含20萬個以上的問題-答案對,涉及90萬個以上的實例分割掩碼。

圖片

圖片

為了實現(xiàn)上述的效果,這項研究具體是如何做的呢?

背后原理

圖片圖片

如論文中的框架圖所示,PixelLM架構(gòu)十分簡潔,包括四個主要部分,后兩者是PixelLM的核心:

  1. 預(yù)訓(xùn)練的CLIP-ViT視覺編碼器
  2. 大語言模型
  3. 輕量級像素解碼器
  4. 分割碼表 Seg Codebook

Seg codebook包含可學(xué)習(xí)的tokens,它們用于編碼CLIP-ViT不同尺度上的目標(biāo)信息。然后,像素解碼器基于這些tokens和CLIP-ViT的圖像特征生成目標(biāo)分割結(jié)果。得益于這種設(shè)計,PixelLM可以在沒有外部分割模型的情況下生成高質(zhì)量的分割結(jié)果,顯著提高了模型效率。

根據(jù)研究人員的描述,Seg codebook內(nèi)的tokens可分為L組,每一組包含N個token,每個組對應(yīng)于來自CLIP-ViT視覺特征的一個尺度。

對于輸入的圖像,PixelLM從CLIP-ViT視覺編碼器產(chǎn)的圖像特征中提取出L個尺度的特征,其中最后一層涵蓋了全局圖像信息,會被LLM用作理解圖像內(nèi)容。

Seg codebook的tokens將會與文本指令及最后一層圖像特征一起輸入LLM中,以自回歸的形式產(chǎn)生輸出。而輸出中也將包含經(jīng)過LLM處理后的Seg codebook tokens,它們將與L個尺度的CLIP-ViT特征一起輸入到像素解碼器中產(chǎn)生最終的分割結(jié)果。

圖片圖片

圖片圖片

那么為什么還要設(shè)置每組包含N個token呢?研究人員結(jié)合下圖進行了解釋:

在涉及多個目標(biāo)或目標(biāo)所包含的語義十分復(fù)雜的情景中,盡管LLM可以提供詳細(xì)的文本響應(yīng),但僅使用單個token可能無法充分捕捉目標(biāo)語義的全部內(nèi)容。

為了增強模型在復(fù)雜推理情景下的能力,研究人員在每個尺度組內(nèi)引入多個token,并執(zhí)行一個token的線性融合操作。在token傳入解碼器之前,使用線性投影層將每個分組內(nèi)的token合并。

下圖展示了每組內(nèi)多個token時的效果。注意力圖是每個token經(jīng)過解碼器處理后的樣子,這個可視化結(jié)果表明,多個token提供了獨特且互補的信息,從而實現(xiàn)了更有效的分割輸出。

圖片圖片

此外,為了增強模型區(qū)分多個目標(biāo)的能力,PixelLM還額外設(shè)計了一個Target Refinement Loss。

MUSE數(shù)據(jù)集

盡管已經(jīng)提出了上述解決方案,但為了充分發(fā)揮模型的能力,模型仍然需要適當(dāng)?shù)挠?xùn)練數(shù)據(jù)?;仡櫮壳翱捎玫墓_數(shù)據(jù)集,發(fā)現(xiàn)現(xiàn)有的數(shù)據(jù)存在以下主要限制:

1) 對物體細(xì)節(jié)的描述不夠充足;
2) 缺乏具有復(fù)雜推理和多種目標(biāo)數(shù)量的問題-答案對。

為了解決這些問題,研究團隊借助GPT-4V構(gòu)建了一個自動化的數(shù)據(jù)標(biāo)注流水線,并由此產(chǎn)生了MUSE數(shù)據(jù)集。下圖展示了MUSE生成時所用到的Prompt及產(chǎn)生的數(shù)據(jù)示例。

圖片圖片

在MUSE中,所有實例掩碼都來自LVIS數(shù)據(jù)集,并且額外添加了根據(jù)圖像內(nèi)容生成的詳細(xì)文本描述。MUSE包含了24.6萬個問題-答案對,每個問題-答案對平均涉及3.7個目標(biāo)物體。此外,研究團隊對數(shù)據(jù)集進行了詳盡的統(tǒng)計分析:

類別統(tǒng)計:MUSE中有來自原始LVIS數(shù)據(jù)集的1000多個類別,以及90萬個具有獨特描述的實例,這些描述基于問題-答案對的上下文而變化。圖(a)顯示了所有問題-答案對中每個類別的實例數(shù)量。

Token數(shù)目統(tǒng)計:圖(b)展示了實例描述的token數(shù)目分布,其中有的實例描述包含了超過100個tokens。這些描述不僅限于簡單的類別名稱;相反,它們通過基于GPT-4V的數(shù)據(jù)生成流程,大量豐富了每個實例的詳細(xì)信息,涵蓋了外觀、屬性和與其他對象的關(guān)系等。數(shù)據(jù)集中信息的深度和多樣性增強了訓(xùn)練模型的泛化能力,使其能夠有效地解決開放域問題。

目標(biāo)數(shù)目統(tǒng)計:圖(c)展示了每個問題-答案對中目標(biāo)數(shù)量的統(tǒng)計數(shù)據(jù)。平均目標(biāo)數(shù)量為3.7,最大目標(biāo)數(shù)量可達(dá)34個。這個數(shù)字可以覆蓋單個圖像的大多數(shù)目標(biāo)推理場景。

算法測評

研究團隊在三個benchmark上評測了PixelLM的性能,包括MUSE benchmark, referring segmentation benchmark,以及multi-referring segmentation benchmark. 在multi-referring segmentation benchmark中,研究團隊要求模型在一個問題中連續(xù)地分割出referring segmentation benchmark中每幅圖像包含的多個目標(biāo)。

同時,由于PixelLM是首個處理涉及多目標(biāo)復(fù)雜像素推理任務(wù)的模型,研究團隊建立了四個baseline以對模型進行比較分析。

其中三個baseline基于與PixelLM最相關(guān)工作LISA,包括:

1)原始的LISA;

2)LISA_rec: 先將問題輸入LLAVA-13B以得到目標(biāo)的文本回復(fù),再用LISA分割這些文本;

3)LISA_aug:直接將MUSE加入LISA的訓(xùn)練數(shù)據(jù)。

4) 另外一個則是不使用LLM的通用分割模型SEEM。

圖片圖片

在三個benchmark的絕大多數(shù)指標(biāo)上,PixelLM的性能均優(yōu)于其他方法,且由于PixelLM不依賴于SAM,其TFLOPs遠(yuǎn)遠(yuǎn)低于同尺寸的模型。

感興趣的小伙伴可以先關(guān)注一波,坐等代碼開源了~

參考鏈接:
[1]https://arxiv.org/abs/2312.02228
[2]https://pixellm.github.io/

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-01-08 08:21:16

2025-02-12 13:31:33

2025-01-13 03:00:00

模型數(shù)據(jù)訓(xùn)練

2024-11-13 09:39:13

2024-12-18 18:57:58

2024-12-30 00:01:00

多模態(tài)大模型Python

2024-09-23 08:20:00

模型訓(xùn)練

2024-09-25 14:53:00

2023-06-06 14:09:32

模型開源

2025-04-30 09:00:00

模型推理AI

2024-12-23 12:37:34

2024-11-11 15:11:23

2023-12-04 13:23:00

數(shù)據(jù)訓(xùn)練

2024-05-17 16:02:00

2024-11-12 10:20:00

模型數(shù)據(jù)

2025-03-14 09:02:03

大模型AI技術(shù)

2024-03-20 13:18:46

模型多模態(tài)體系

2023-05-30 14:17:00

模型推理
點贊
收藏

51CTO技術(shù)棧公眾號