NTU、上海AI Lab整理300+論文:基于Transformer的視覺分割最新綜述出爐
SAM (Segment Anything )作為一個視覺的分割基礎模型,在短短的 3 個月時間吸引了很多研究者的關注和跟進。如果你想系統(tǒng)地了解 SAM 背后的技術,并跟上內(nèi)卷的步伐,并能做出屬于自己的 SAM 模型,那么接下這篇 Transformer-Based 的 Segmentation Survey 是不容錯過!近期,南洋理工大學和上海人工智能實驗室?guī)孜谎芯咳藛T寫了一篇關于 Transformer-Based 的 Segmentation 的綜述,系統(tǒng)地回顧了近些年來基于 Transformer 的分割與檢測模型,調(diào)研的最新模型截止至今年 6 月!同時,綜述還包括了相關領域的最新論文以及大量的實驗分析與對比,并披露了多個具有廣闊前景的未來研究方向!
視覺分割旨在將圖像、視頻幀或點云分割為多個片段或組。這種技術具有許多現(xiàn)實世界的應用,如自動駕駛、圖像編輯、機器人感知和醫(yī)學分析。在過去的十年里,基于深度學習的方法在這個領域取得了顯著的進展。最近,Transformer 成為一種基于自注意力機制的神經(jīng)網(wǎng)絡,最初設計用于自然語言處理,在各種視覺處理任務中明顯超越了以往的卷積或循環(huán)方法。具體而言,視覺 Transformer 為各種分割任務提供了強大、統(tǒng)一甚至更簡單的解決方案。本綜述全面概述了基于 Transformer 的視覺分割,總結了最近的進展。首先,本文回顧了背景,包括問題定義、數(shù)據(jù)集和以往的卷積方法。接下來,本文總結了一個元架構,將所有最近的基于 Transformer 的方法統(tǒng)一起來?;谶@個元架構,本文研究了各種方法設計,包括對這個元架構的修改和相關應用。此外,本文還介紹了幾個相關的設置,包括 3D 點云分割、基礎模型調(diào)優(yōu)、域適應分割、高效分割和醫(yī)學分割。此外,本文在幾個廣泛認可的數(shù)據(jù)集上編譯和重新評估了這些方法。最后,本文確定了這個領域的開放挑戰(zhàn),并提出了未來研究的方向。本文仍會持續(xù)和跟蹤最新的基于 Transformer 的分割與檢測方法。
圖片
項目地址:https://github.com/lxtGH/Awesome-Segmentation-With-Transformer
論文地址:https://arxiv.org/pdf/2304.09854.pdf
研究動機
- ViT 和 DETR 的出現(xiàn)使得分割與檢測領域有了十足的進展,目前幾乎各個數(shù)據(jù)集基準上,排名靠前的方法都是基于 Transformer 的。為此有必要系統(tǒng)地總結與對比下這個方向的方法與技術特點。
- 近期的大模型架構均基于 Transformer 結構,包括多模態(tài)模型以及分割的基礎模型(SAM),視覺各個任務向著統(tǒng)一的模型建??繑n。
- 分割與檢測衍生出來了很多相關下游任務,這些任務很多方法也是采用 Transformer 結構來解決。
綜述特色
- 系統(tǒng)性和可讀性。本文系統(tǒng)地回顧了分割的各個任務定義,以及相關任務定義,評估指標。并且本文從卷積的方法出發(fā),基于 ViT 和 DETR,總結出了一種元架構?;谠撛軜?,本綜述把相關的方法進行歸納與總結,系統(tǒng)地回顧了近期的方法。具體的技術回顧路線如圖 1 所示。
- 技術的角度進行細致分類。相比于前人的 Transformer 綜述,本文對方法的分類會更加的細致。本文把類似思路的論文匯聚到一起,對比了他們的相同點以及不同點。例如,本文會對同時修改元架構的解碼器端的方法進行分類,分為基于圖像的 Cross Attention,以及基于視頻的時空 Cross Attention 的建模。
- 研究問題的全面性。本文會系統(tǒng)地回顧分割各個方向,包括圖像,視頻,點云分割任務。同時,本文也會同時回顧相關的方向比如開集分割于檢測模型,無監(jiān)督分割和弱監(jiān)督分割。
圖片
圖 1. Survey 的內(nèi)容路線圖
圖 2. 常用的數(shù)據(jù)集以及分割任務總結
Transformer-Based 分割和檢測方法總結與對比
圖 3. 通用的元架構框架(Meta-Architecture)
本文首先基于 DETR 和 MaskFormer 的框架總結出了一個元架構。這個模型包括了如下幾個不同的模塊:
- Backbone:特征提取器,用來提取圖像特征。
- Neck:構建多尺度特征,用來處理多尺度的物體。
- Object Query:查詢對象,用于代表場景中的每個實體,包括前景物體以及背景物體。
- Decoder:解碼器,用于去逐步優(yōu)化 Object Query 以及對應的特征。
- End-to-End Training:基于 Object Query 的設計可以做到端到端的優(yōu)化。
基于這個元架構,現(xiàn)有的方法可以分為如下五個不同的方向來進行優(yōu)化以及根據(jù)任務進行調(diào)整,如圖 4 所示,每個方向有包含幾個不同的子方向。
圖 4. Transformer-Based Segmentation 方法總結與對比
- 更好的特征表達學習,Representation Learning。強大的視覺特征表示始終會帶來更好的分割結果。本文將相關工作分為三個方面:更好的視覺 Transformer 設計、混合 CNN/Transformer/MLP 以及自監(jiān)督學習。
- 解碼器端的方法設計,Interaction Design in Decoder。本章節(jié)回顧了新的 Transformer 解碼器設計。本文將解碼器設計分為兩組:一組用于改進圖像分割中的交叉注意力設計,另一組用于視頻分割中的時空交叉注意力設計。前者側重于設計一個更好的解碼器,以改進原始 DETR 中的解碼器。后者將基于查詢對象的目標檢測器和分割器擴展到視頻領域,用于視頻目標檢測(VOD)、視頻實例分割(VIS)和視頻像素分割(VPS),重點在建模時間一致性和關聯(lián)性。
- 嘗試從查詢對象優(yōu)化的角度,Optimizing Object Query。與 Faster-RCNN 相比,DETR 要更長的收斂時間表。由于查詢對象的關鍵作用,現(xiàn)有的一些方法已經(jīng)展開了研究,以加快訓練速度和提高性能。根據(jù)對象查詢的方法,本文將下面的文獻分為兩個方面:添加位置信息和采用額外監(jiān)督。位置信息提供了對查詢特征進行快速訓練采樣的線索。額外監(jiān)督著重設計了除 DETR 默認損失函數(shù)之外的特定損失函數(shù)。
- 使用查詢對象來做特征和實例的關聯(lián),Using Query For Association。受益于查詢對象的簡單性,最近的多個研究將其作為關聯(lián)工具來解決下游任務。主要有兩種用法:一種是實例級別的關聯(lián),另一種是任務級別的關聯(lián)。前者采用實例判別的思想,用于解決視頻中的實例級匹配問題,例如視頻的分割和跟蹤。后者使用查詢對象來橋接不同子任務實現(xiàn)高效的多任務學習。
- 多模態(tài)的條件查詢對象生成,Conditional Query Generation。這一章節(jié)主要關注多模態(tài)分割任務。條件查詢查詢對象主要來處理跨模態(tài)和跨圖像的特征匹配任務。根據(jù)任務輸入條件而確定的,解碼器頭部使用不同的查詢來獲取相應的分割掩碼。根據(jù)不同輸入的來源,本文將這些工作分為兩個方面:語言特征和圖像特征。這些方法基于不同模型特征融合查詢對象的策略,在多個多模態(tài)的分割任務以及 few-shot 分割上取得了不錯的結果。
圖 5 中給出這 5 個不同方向的一些代表性的工作對比。更具體的方法細節(jié)以及對比可以參考論文的內(nèi)容。
圖片
圖 5. Transformer-based 的分割與檢測代表性的方法總結與對比
相關研究領域的方法總結與對比
本文還探索了幾個相關的領域:1,基于 Transformer 的點云分割方法。2, 視覺與多模態(tài)大模型調(diào)優(yōu)。3,域相關的分割模型研究,包括域遷移學習,域泛化學習。4,高效語義分割:無監(jiān)督與弱監(jiān)督分割模型。5,類無關的分割與跟蹤。6,醫(yī)學圖像分割。
圖片
圖 6. 相關研究領域的基于 Transformer 方法總結與對比
不同方法的實驗結果對比
圖 7. 語義分割數(shù)據(jù)集的基準實驗
圖 8. 全景分割數(shù)據(jù)集的基準實驗
本文還統(tǒng)一地使用相同的實驗設計條件來對比了幾個代表性的工作在全景分割以及語義分割上多個數(shù)據(jù)集的結果。結果發(fā)現(xiàn),在使用相同的訓練策略以及編碼器的時候,方法性能之間的差距會縮小。
此外,本文還同時對比了近期的 Transformer-based 的分割方法在多個不同數(shù)據(jù)集和任務上結果。(語義分割,實例分割,全景分割,以及對應的視頻分割任務)
未來方向
此外本文也給出了一些未來的可能一些研究方向分析。這里給出三個不同的方向作為例子。
- 更加通用與統(tǒng)一的分割模型。使用 Transformer 結構來統(tǒng)一不同的分割任務是一個趨勢。最近的研究使用基于查詢對象的 Transformer 在一個體系結構下執(zhí)行不同的分割任務。一個可能的研究方向是通過一個模型在各種分割數(shù)據(jù)集上統(tǒng)一圖像和視頻分割任務。這些通用模型可以在各種場景中實現(xiàn)通用和穩(wěn)健的分割,例如,在各種場景中檢測和分割罕見類別有助于機器人做出更好的決策。
- 結合視覺推理的分割模型。視覺推理要求機器人理解場景中物體之間的聯(lián)系,這種理解在運動規(guī)劃中起著關鍵作用。先前的研究已經(jīng)探索了將分割結果作為視覺推理模型的輸入,用于各種應用,如目標跟蹤和場景理解。聯(lián)合分割和視覺推理可以是一個有前景的方向,對分割和關系分類都具有互惠的潛力。通過將視覺推理納入分割過程中,研究人員可以利用推理的能力提高分割的準確性,同時分割結果也可以為視覺推理提供更好的輸入。
- 持續(xù)學習的分割模型研究。現(xiàn)有的分割方法通常在封閉世界的數(shù)據(jù)集上進行基準測試,這些數(shù)據(jù)集具有一組預定義的類別,即假設訓練和測試樣本具有預先知道的相同類別和特征空間。然而,真實場景通常是開放世界和非穩(wěn)定的,新類別的數(shù)據(jù)可能不斷出現(xiàn)。例如,在自動駕駛車輛和醫(yī)學診斷中,可能會突然出現(xiàn)未預料到的情況?,F(xiàn)有方法在現(xiàn)實和封閉世界場景中的性能和能力之間存在明顯差距。因此,希望能夠逐漸而持續(xù)地將新概念納入分割模型的現(xiàn)有知識庫中,使得模型能夠進行終身學習。
更多的研究方向內(nèi)容可以查閱原始論文。