BT - Unet:生物醫(yī)學(xué)圖像分割的自監(jiān)督學(xué)習(xí)框架
BT-Unet采用Barlow twin方法對U-Net模型的編碼器進(jìn)行無監(jiān)督的預(yù)訓(xùn)練減少冗余信息,以學(xué)習(xí)數(shù)據(jù)表示。之后,對完整網(wǎng)絡(luò)進(jìn)行微調(diào)以執(zhí)行實際的分割。
BT-Unet由 Indian Institute of Information Technology Allahabad開發(fā),發(fā)布在2022年的JML上。
BT-Unet
BT-Unet架構(gòu)圖:a、預(yù)訓(xùn)練U-Net編碼器網(wǎng)絡(luò),b、用預(yù)訓(xùn)練的編碼器權(quán)值初始化的微調(diào)U-Net模型
BT-Unet框架分為兩個階段:1)預(yù)訓(xùn)練階段和2)微調(diào)階段。
預(yù)訓(xùn)練
預(yù)訓(xùn)練的目的是使用無注釋的數(shù)據(jù)樣本,學(xué)習(xí)復(fù)雜的特征表示。U-Net模型的編碼器使用Barlow Twins (BT)策略進(jìn)行預(yù)先訓(xùn)練,然后進(jìn)行微調(diào)以執(zhí)行實際的分割:
BT-Unet框架可應(yīng)用于各種先進(jìn)的U-Net模型:經(jīng)典U-Net、注意力U-Net (A-Unet)、inception U-Net (I-Unet)和residual cross-spatial attention guided inception U-Net (RCA-IUnet)。
微調(diào)
U-Net 模型中編碼器網(wǎng)絡(luò)的權(quán)重使用預(yù)訓(xùn)練權(quán)重(來自第一階段)進(jìn)行初始化,而網(wǎng)絡(luò)的其余部分使用默認(rèn)權(quán)重進(jìn)行初始化。
使用有限的注釋樣本對 U-Net 模型進(jìn)行微調(diào),用于生物醫(yī)學(xué)圖像分割。
U-Net 模型使用分段損失函數(shù)進(jìn)行微調(diào),L 定義為二元交叉熵?fù)p失、LBC 和dice coefficient損失的平均值,LDC:
其中,y為像素的真值標(biāo)簽,p(y)為像素的預(yù)測標(biāo)簽,N為像素的總數(shù)量。
結(jié)果表現(xiàn)
論文使用下面的數(shù)據(jù)集進(jìn)行評測對比:
基于相同樣本數(shù)量的小訓(xùn)練集的性能分析
- KDSB18:BTU-Net 模型的性能優(yōu)于沒有使用 BT方法 的模型。
- BUSIS:U-Net 和 A-Unet 模型無法學(xué)習(xí)和提取有關(guān)腫瘤區(qū)域的特征圖(精度、DC 和 mIoU 為 0),但是通過預(yù)訓(xùn)練,這些模型取得了顯著的改進(jìn)。在 I-Unet 和 RCAIUnet 模型的情況下,通過預(yù)訓(xùn)練可以得到相當(dāng)大的改進(jìn)。
- ISIC18:I-Unet 和 RCAIUnet 模型是影響最大的網(wǎng)絡(luò),精度分別提高了 5.1% 和 2.2%。然而,在使用 BT 預(yù)訓(xùn)練時,經(jīng)典的U-Net 和 A-Unet 的性能略有下降。
- BraTS18:I-Unet 和 RCA-IUnet 模型在使用 BT-Unet 框架時在分割性能上取得了顯著提升,而普通 U-Net 和 A-Unet 模型則沒有觀察到相同的行為。
在不同規(guī)模小型訓(xùn)練集的性能研究
對于所有訓(xùn)練數(shù)據(jù)比例小于50%的數(shù)據(jù)集,在模型之間觀察到類似的性能變化。
定性結(jié)果
帶有BT的RCA-IUNet具有很好的分割效果。