字節(jié)多模態(tài)大模型PixelLM:高效像素級推理,無需依賴SA
多模態(tài)大模型爆發(fā),準(zhǔn)備好進入圖像編輯、自動駕駛和機器人技術(shù)等細(xì)粒度任務(wù)中實際應(yīng)用了嗎?
目前大多數(shù)模型的能力還是局限于生成對整體圖像或特定區(qū)域的文本描述,在像素級理解方面的能力(例如物體分割)相對有限。
針對這個問題,一些工作開始探索借助多模態(tài)大模型來處理用戶的分割指令(例如,“請分割出圖片中富含維生素C的水果”)。
然而,市面上的方法都存在兩個主要缺點:
1) 無法處理涉及多個目標(biāo)對象的任務(wù),而這在現(xiàn)實世界場景中是不可或缺的;
2) 依賴于像SAM這樣的預(yù)訓(xùn)練圖像分割模型,而SAM的一次前向傳播需要的計算量已經(jīng)足夠 Llama-7B產(chǎn)生500多個token了。
為了解決此問題,字節(jié)跳動智能創(chuàng)作團隊聯(lián)合北京交通大學(xué)、北京科技大學(xué)的研究人員提出了首個無需依賴SAM的高效像素級推理大模型PixelLM。
在具體介紹它之前,先來體驗幾組PixelLM實際分割的效果:
相比之前的工作,PixelLM的優(yōu)勢在于:
- 能夠熟練處理任意數(shù)量的開放域目標(biāo)和多樣化的復(fù)雜推理分割任務(wù)。
- 避免了額外的、成本高昂的分割模型,提升了效率和對不同應(yīng)用的遷移能力。
進一步,為了支持這一研究領(lǐng)域的模型訓(xùn)練和評估,研究團隊在LVIS數(shù)據(jù)集的基礎(chǔ)之上,借助GPT-4V構(gòu)建了一個面向多目標(biāo)推理分割場景的數(shù)據(jù)集MUSE,它包含20萬個以上的問題-答案對,涉及90萬個以上的實例分割掩碼。
為了實現(xiàn)上述的效果,這項研究具體是如何做的呢?
背后原理
圖片
如論文中的框架圖所示,PixelLM架構(gòu)十分簡潔,包括四個主要部分,后兩者是PixelLM的核心:
- 預(yù)訓(xùn)練的CLIP-ViT視覺編碼器
- 大語言模型
- 輕量級像素解碼器
- 分割碼表 Seg Codebook
Seg codebook包含可學(xué)習(xí)的tokens,它們用于編碼CLIP-ViT不同尺度上的目標(biāo)信息。然后,像素解碼器基于這些tokens和CLIP-ViT的圖像特征生成目標(biāo)分割結(jié)果。得益于這種設(shè)計,PixelLM可以在沒有外部分割模型的情況下生成高質(zhì)量的分割結(jié)果,顯著提高了模型效率。
根據(jù)研究人員的描述,Seg codebook內(nèi)的tokens可分為L組,每一組包含N個token,每個組對應(yīng)于來自CLIP-ViT視覺特征的一個尺度。
對于輸入的圖像,PixelLM從CLIP-ViT視覺編碼器產(chǎn)的圖像特征中提取出L個尺度的特征,其中最后一層涵蓋了全局圖像信息,會被LLM用作理解圖像內(nèi)容。
Seg codebook的tokens將會與文本指令及最后一層圖像特征一起輸入LLM中,以自回歸的形式產(chǎn)生輸出。而輸出中也將包含經(jīng)過LLM處理后的Seg codebook tokens,它們將與L個尺度的CLIP-ViT特征一起輸入到像素解碼器中產(chǎn)生最終的分割結(jié)果。
圖片
圖片
那么為什么還要設(shè)置每組包含N個token呢?研究人員結(jié)合下圖進行了解釋:
在涉及多個目標(biāo)或目標(biāo)所包含的語義十分復(fù)雜的情景中,盡管LLM可以提供詳細(xì)的文本響應(yīng),但僅使用單個token可能無法充分捕捉目標(biāo)語義的全部內(nèi)容。
為了增強模型在復(fù)雜推理情景下的能力,研究人員在每個尺度組內(nèi)引入多個token,并執(zhí)行一個token的線性融合操作。在token傳入解碼器之前,使用線性投影層將每個分組內(nèi)的token合并。
下圖展示了每組內(nèi)多個token時的效果。注意力圖是每個token經(jīng)過解碼器處理后的樣子,這個可視化結(jié)果表明,多個token提供了獨特且互補的信息,從而實現(xiàn)了更有效的分割輸出。
圖片
此外,為了增強模型區(qū)分多個目標(biāo)的能力,PixelLM還額外設(shè)計了一個Target Refinement Loss。
MUSE數(shù)據(jù)集
盡管已經(jīng)提出了上述解決方案,但為了充分發(fā)揮模型的能力,模型仍然需要適當(dāng)?shù)挠?xùn)練數(shù)據(jù)?;仡櫮壳翱捎玫墓_數(shù)據(jù)集,發(fā)現(xiàn)現(xiàn)有的數(shù)據(jù)存在以下主要限制:
1) 對物體細(xì)節(jié)的描述不夠充足;
2) 缺乏具有復(fù)雜推理和多種目標(biāo)數(shù)量的問題-答案對。
為了解決這些問題,研究團隊借助GPT-4V構(gòu)建了一個自動化的數(shù)據(jù)標(biāo)注流水線,并由此產(chǎn)生了MUSE數(shù)據(jù)集。下圖展示了MUSE生成時所用到的Prompt及產(chǎn)生的數(shù)據(jù)示例。
圖片
在MUSE中,所有實例掩碼都來自LVIS數(shù)據(jù)集,并且額外添加了根據(jù)圖像內(nèi)容生成的詳細(xì)文本描述。MUSE包含了24.6萬個問題-答案對,每個問題-答案對平均涉及3.7個目標(biāo)物體。此外,研究團隊對數(shù)據(jù)集進行了詳盡的統(tǒng)計分析:
類別統(tǒng)計:MUSE中有來自原始LVIS數(shù)據(jù)集的1000多個類別,以及90萬個具有獨特描述的實例,這些描述基于問題-答案對的上下文而變化。圖(a)顯示了所有問題-答案對中每個類別的實例數(shù)量。
Token數(shù)目統(tǒng)計:圖(b)展示了實例描述的token數(shù)目分布,其中有的實例描述包含了超過100個tokens。這些描述不僅限于簡單的類別名稱;相反,它們通過基于GPT-4V的數(shù)據(jù)生成流程,大量豐富了每個實例的詳細(xì)信息,涵蓋了外觀、屬性和與其他對象的關(guān)系等。數(shù)據(jù)集中信息的深度和多樣性增強了訓(xùn)練模型的泛化能力,使其能夠有效地解決開放域問題。
目標(biāo)數(shù)目統(tǒng)計:圖(c)展示了每個問題-答案對中目標(biāo)數(shù)量的統(tǒng)計數(shù)據(jù)。平均目標(biāo)數(shù)量為3.7,最大目標(biāo)數(shù)量可達(dá)34個。這個數(shù)字可以覆蓋單個圖像的大多數(shù)目標(biāo)推理場景。
算法測評
研究團隊在三個benchmark上評測了PixelLM的性能,包括MUSE benchmark, referring segmentation benchmark,以及multi-referring segmentation benchmark. 在multi-referring segmentation benchmark中,研究團隊要求模型在一個問題中連續(xù)地分割出referring segmentation benchmark中每幅圖像包含的多個目標(biāo)。
同時,由于PixelLM是首個處理涉及多目標(biāo)復(fù)雜像素推理任務(wù)的模型,研究團隊建立了四個baseline以對模型進行比較分析。
其中三個baseline基于與PixelLM最相關(guān)工作LISA,包括:
1)原始的LISA;
2)LISA_rec: 先將問題輸入LLAVA-13B以得到目標(biāo)的文本回復(fù),再用LISA分割這些文本;
3)LISA_aug:直接將MUSE加入LISA的訓(xùn)練數(shù)據(jù)。
4) 另外一個則是不使用LLM的通用分割模型SEEM。
圖片
在三個benchmark的絕大多數(shù)指標(biāo)上,PixelLM的性能均優(yōu)于其他方法,且由于PixelLM不依賴于SAM,其TFLOPs遠(yuǎn)遠(yuǎn)低于同尺寸的模型。
感興趣的小伙伴可以先關(guān)注一波,坐等代碼開源了~
參考鏈接:
[1]https://arxiv.org/abs/2312.02228
[2]https://pixellm.github.io/