自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

新聞 人工智能
圖像分割是計算機視覺的基本任務(wù)之一,在自動駕駛、安防安保、智能診療等任務(wù)中都有著重要應用。

為解決在線學習所帶來的災難性遺忘問題,北大等研究機構(gòu)提出了采用梯度調(diào)節(jié)模塊(GRM),通過訓練權(quán)重在特征重建時的作用效果及像素的空間位置先驗,調(diào)節(jié)反向傳播時各權(quán)重的梯度,以增強模型的記憶性的超像素分割模型 LNSNet。

該研究已被 CVPR 2021 接收,主要由朱磊和佘琪參與討論和開發(fā),北京大學分子影像實驗室盧閆曄老師給予指導。

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

論文鏈接:
https://arxiv.org/abs/2103.10681

項目開源代碼:
https://github.com/zh460045050/LNSNet

實驗室鏈接:http://www.milab.wiki

一、簡介

圖像分割是計算機視覺的基本任務(wù)之一,在自動駕駛、安防安保、智能診療等任務(wù)中都有著重要應用。超像素分割作為圖像分割中的一個分支,旨在依賴于圖像的顏色信息及空間關(guān)系信息,將圖像高效的分割為遠超于目標個數(shù)的超像素塊,達到盡可能保留圖像中所有目標的邊緣信息的目的,從而更好的輔助后續(xù)視覺任務(wù)(如目標檢測、目標跟蹤、語義分割等)。

基于傳統(tǒng)機器學習的超像素分割方法會將超像素分割看作像素聚類問題,并通過限制搜索空間的策略,提高超像素的生成效率(如 SLIC、SNIC、MSLIC、IMSLIC 等方法)。然而,這些方法大多依賴 RGB 或 LAB 顏色空間信息對像素進行聚類,而缺乏對高層信息的考量。

雖然一些超像素分割方法(LRW、DRW、ERS、LSC)通過構(gòu)建圖模型的方式,將原本 5 維的顏色及空間信息依據(jù)四鄰域或八鄰域節(jié)點的相似性關(guān)系豐富至 N 維,來獲取更好的特征表達。進而使用隨機游走或譜聚類等方式進行超像素分割,但這些方法運行效率較差。

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

采用卷積神經(jīng)網(wǎng)絡(luò)進行超像素分割(SEAL、SSN、S-FCN)大多拋棄了傳統(tǒng)超像素方法的無監(jiān)督的廣義分割模式,轉(zhuǎn)而采用大量的區(qū)域級的分割標注對卷積神經(jīng)網(wǎng)絡(luò)進行離線訓練指導超像素的生成。這種基于標注的訓練模式導致生成的超像素通常包含較多了高層語義信息,因此限制了超像素分割方法的泛化性及靈活性。

此外,這種超像素分割模式也無法較好的應用于缺乏分割標注的視覺任務(wù),如目標跟蹤、弱監(jiān)督圖像分割等。近期已有工作(RIM)借鑒深度聚類的模式無監(jiān)督地運用神經(jīng)網(wǎng)絡(luò)進行廣義超像素分割,然而該方法需要依據(jù)每一張輸入圖像訓練一個特定的卷積神經(jīng)網(wǎng)絡(luò)進行像素聚類,因此極大地增加了超像素分割的運算時間。

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

因此為保證超像素分割既可以更好的借助深度學習進行有效的特征提取,又可以同時兼顧傳統(tǒng)超像素分割方法高效、靈活、遷移性強的特點,本研究從持續(xù)學習的視角看待超像素分割問題,并提出了一種新型的超像素分割模型可以更好的支持無監(jiān)督的在線訓練模式 (online training)??紤]到超像素分割作為廣義分割問題需要更關(guān)注圖像的細節(jié)信息,本模型摒棄了其他超像素分割網(wǎng)絡(luò)中采用的較深而復雜的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),而選用了較為輕量級的特征提取模塊(FEM),并提出了非迭代聚類模塊(NCM)通過自動選取種子節(jié)點,避免了超像素分割方法中的聚類中心的迭代更新,極大地降低了超像素分割的空間復雜度與時間復雜度(相比SSN參數(shù)量降低近20倍同時運算時間加快了近 4倍)

為解決在線學習所帶來的災難性遺忘問題,本模型采用了梯度調(diào)節(jié)模塊(GRM),通過訓練權(quán)重在特征重建時的作用效果及像素的空間位置先驗,調(diào)節(jié)反向傳播時各權(quán)重的梯度,以增強模型的記憶性及泛化性。

二、訓練框架設(shè)計

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

總的來看,在特定圖像 Ii 上進行廣義超像素分割的本質(zhì),可以看作在該圖像域中的進行像素聚類任務(wù) Ti。因此,對于包含 n 張圖像的圖像集 I=,在該圖像集上的超像素分割任務(wù)可以看作任務(wù)集 T=。在此條件下,我們可以將當前基于深度學習的超像素分割方法看作以下兩種策略:

① 基于深度聚類模式的 RIM 超像素分割方法可以看作是一種單任務(wù)學習策略。如圖 2B 所示,該策略針對任務(wù)集中每一個特定任務(wù) Ti 找到一個最優(yōu)的參數(shù)空間,因此整個任務(wù)集 T 來說,該任務(wù)需要訓練得到 n 個各不相同的參數(shù)空間用以提取聚類特征。這種做法極大地增加了模型訓練及存儲的消耗,導致其運算效率極低。

② 其他超像素分割網(wǎng)絡(luò)的訓練模式(SEAL、SSN、S-FCN)則可以看作一種多任務(wù)學習策略。如圖 2A 所示,該策略在分割標注的指導下得到一個對于整個任務(wù)集 T 通用參數(shù)空間。雖然這種策略僅需要得到一個參數(shù)空間,但該方式仍需要離線的進行模型訓練,且訓練過程都需要維護整個圖像集 I。此外,這些方法對于分割標簽的需求也導致其過于關(guān)注提取更高層語義特征,而非關(guān)注對于廣義超像素分割來說更重要的低層顏色特征與空間特征的融合,限制了卷積神經(jīng)網(wǎng)絡(luò)的遷移性及靈活性。

與這兩種方式不同,本文希望利用持續(xù)學習策略,保證超像素分割方法既可以既借助卷積神經(jīng)進行更為有效的特征提取,又同時兼顧傳統(tǒng)超像素分割方法高效、靈活、遷移性強的特點。

如圖 2C 所示,本文所采用的持續(xù)學習策略通過逐一針對特定圖像 Ii 進行訓練,保證最終可以得到一個適用于整個任務(wù)集 T 的通用參數(shù)空間,這要求了卷積神經(jīng)網(wǎng)絡(luò)需要具備記憶歷史任務(wù)的能力,也就是解決持續(xù)學習中的災難性遺忘問題。本模型的具體訓練流程如圖 3 所示,在第 i 輪的訓練過程中,我們僅考慮單一的任務(wù) Ti 對模型進行擬合。其中,特征提取模塊 FCM 用于生成聚類所需的聚類特征,無迭代聚類模塊 NCM 進而利用聚類特征進行聚類得到超像素分割結(jié)果。梯度調(diào)節(jié)模塊 GRM 則用以調(diào)節(jié)反向傳播時 FCM 參數(shù)的梯度,保證模型可以更好的記憶歷史任務(wù) Ti-1,Ti-2,….. , T1。

三、模型結(jié)構(gòu)及損失函數(shù)設(shè)計

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

本文提出的模型結(jié)構(gòu)如圖 3 所示,其中考慮到超像素分割作為廣義分割問題更為關(guān)注圖像的細節(jié)信息與空間信息的融合。因此本模型在特征提取模塊 FEM(圖 3A)部分摒棄了其他超像素分割網(wǎng)絡(luò)中采用的較深而復雜的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),轉(zhuǎn)而使用較為輕量級的特征提取模塊,以減少在特征提取過程中圖像細節(jié)信息的損失。具體來看,我們首先將輸入圖像顏色信息 RGB/LAB 及空間信息 XY 進行 Concat 得到 5 維的輸入張量 X。隨后我們使用三個不同空洞率 (d=1,3,5) 的空洞卷積進行多尺度的特征提取,并采用兩個 3x3 卷積模塊進行多尺度特征融合,進而得到用以進行聚類的輸出特征圖 Z:

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

接著,進一步增加過程的運算效率,我們提出了無迭代聚類模塊 NCM(圖 3C)通過生成種子節(jié)點相對于網(wǎng)格中心的橫縱坐標偏移量,保證種子節(jié)點在具有較強空間緊湊程度的前提下,預測相應超像塊的種子節(jié)點,并依據(jù)其與各像素聚類特征間的 T 相似性進行像素聚類。該模塊首先將圖像按照超像素個數(shù)進行網(wǎng)格劃分,進而對屬于同一網(wǎng)格的位置進行空間池化操作,得到空間尺寸等于超像素個數(shù)的低分辨特征圖作為網(wǎng)格的特征 Zk。隨后,我們將 Zk 輸入 out channel 為 2 的 1x1 卷積得到種子節(jié)點相對于網(wǎng)格中心的橫縱偏移量△r,△c,并將此疊加至網(wǎng)格中心坐標 Sc 最終的超像素種子節(jié)點:

隨后,我們利用 T - 分布核函數(shù)計算種子節(jié)點特征與其余像素特征的相似性,并以此為依據(jù)得到最終的像素聚類結(jié)果 L,也就是輸出超像素塊。

最后,梯度調(diào)節(jié)模塊 GRM(圖 3B)首先利用像素聚類特征進行對輸入圖像及其各像素的空間信息進行重建。其中梯度自適應層(GAL)依據(jù)重建結(jié)果計算 FEM 中各通道對于當前任務(wù)的擬合程度 g(W^r),具體來看,我們分別依據(jù)重建權(quán)重 W^r 判斷各 Z 中特征通道分別在顏色信息和空間位置復原中的重要性,并利用二者乘積表示該通道的擬合程度:

隨后,在訓練過程中 GAL 通過維護記憶矩陣 m 用以記憶各通道在前序任務(wù)中的擬合程度。

隨后在反向傳播過程中,我們對各通道所對應的 FEM 中權(quán)重矩陣依據(jù)前序任務(wù)的重要程度構(gòu)建調(diào)節(jié)率φ^a,用以調(diào)節(jié)對各通道所對應權(quán)重的梯度:

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

該調(diào)節(jié)率可以保證對于歷史任務(wù)擬合程度較好的權(quán)重具有較小的梯度,從而避免對于在前序任務(wù)中擬合程度高而在當前任務(wù)中擬合程度低的權(quán)重在反向傳播過程中受到污染,進而防止 FEM 過擬合當前任務(wù)造成對前序任務(wù)的造成災難性遺忘。此外,GRM 還采用了梯度雙向?qū)樱℅BL)借助邊緣先驗信息使得平滑位置超像素塊可以更多的關(guān)注空間信息,而紋理豐富位置超像素塊可以更多考慮顏色信息,達到減少冗余超像素塊、增強邊緣擬合性的目的。

模型訓練的損失函數(shù)包含兩個部分,其中第一個部分為重建損失 Lr。該部分通過 MSE 損失保證聚類特征可以重建回初始圖像及各像素對應的空間位置信息,從而使得聚類特征可以更好的對空間信息及顏色信息進行融合。第二部分為聚類損失 Lc,該部分在 DEC 聚類損失的基礎(chǔ)上增加了空間距離約束。該約束可以在保證各超像素塊中像素類內(nèi)相似性大的同時,使得每一像素更趨向于被分配到與其空間距離前 k 近的種子節(jié)點所在超像素中,從而保證分割結(jié)果中超像素塊的緊湊程度。

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

四、實驗

總的來看我們的方法相比于 SOTA 的超像素分割方法,具有更高的效率及可遷移性。

首先,我們在 BSDS 數(shù)據(jù)集上進行了實驗,可以看到我們提出的超像素分割策略在 ASA、BR、F 等常用超像素評價指標中都遠高于其余無監(jiān)督的超像素分割方法(包括傳統(tǒng)方法 SLIC、LSC、ERS,RIM)。此外,相比于依賴分割標簽的有監(jiān)督超像素分割方法 SSN,由于我們的方法在訓練過程中無法感知到高層語義信息,導致分割結(jié)果會產(chǎn)生相對較多的冗余超像素塊,這點造成了我們的方法的分割精確性較低,因此在 ASA 及 F 指標中略低于 SSN。然而這一特點也使得我們的模型具有更好的分割召回率,對于一些復雜場景中的模糊邊緣的擬合性更好,因此我們的方法可以取得更高的 BR 指標

此外,由于使用了更為輕量級的特征提取器,并采用無迭代的聚類模式,我們模型在時間、空間復雜度上遠低于其余基于卷積神經(jīng)網(wǎng)絡(luò)的超像素分割方法。此外,我們也將 BSDS 數(shù)據(jù)集中訓練好的超像素分割模型應用在醫(yī)學影像中進行實驗,以測試各超像素分割模型的遷移性??梢钥吹?,無論是對于眼底熒光造影中眼底血管分割數(shù)據(jù)集(DRIVE)還是 OCT 影像中視網(wǎng)膜層分割數(shù)據(jù)集(DME),我們的模型都比其他基于卷積神經(jīng)網(wǎng)絡(luò)分割模型具有更好的遷移性。

北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet
北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet
北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet
北大、字節(jié)跳動等利用增量學習提出超像素分割模型LNSNet

 【責任編輯:張燕妮 TEL:(010)68476606】

責任編輯:張燕妮 來源: 機器之心Pro
相關(guān)推薦

2023-04-13 15:40:59

模型論文

2025-01-15 14:58:06

2025-02-18 09:27:20

2024-08-07 14:40:00

AI數(shù)據(jù)

2024-08-07 13:00:00

2023-01-03 16:54:27

字節(jié)跳動深度學習

2020-12-25 16:30:17

機器學習/隱私保護

2021-10-09 15:36:31

技術(shù)研發(fā)三維

2024-12-26 15:30:00

模型深度學習AI

2024-09-30 14:40:00

AI強化學習框架

2022-05-11 14:45:48

模型人工智能

2023-11-26 18:05:00

文本訓練

2024-07-02 01:09:02

2024-05-15 10:59:40

火山引擎豆包扣子

2024-09-12 12:46:36

2024-09-25 15:57:56

2023-07-19 16:22:00

Hudi機器學習

2023-11-09 15:10:00

訓練數(shù)據(jù)

2022-04-26 15:09:14

優(yōu)化模型訓練

2023-10-18 11:56:17

開源AI
點贊
收藏

51CTO技術(shù)棧公眾號