自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

BT - Unet:生物醫(yī)學(xué)圖像分割的自監(jiān)督學(xué)習(xí)框架

開發(fā) 前端
BT-Unet采用Barlow twin方法對U-Net模型的編碼器進(jìn)行無監(jiān)督的預(yù)訓(xùn)練減少冗余信息,以學(xué)習(xí)數(shù)據(jù)表示。之后,對完整網(wǎng)絡(luò)進(jìn)行微調(diào)以執(zhí)行實際的分割。

BT-Unet采用Barlow twin方法對U-Net模型的編碼器進(jìn)行無監(jiān)督的預(yù)訓(xùn)練減少冗余信息,以學(xué)習(xí)數(shù)據(jù)表示。之后,對完整網(wǎng)絡(luò)進(jìn)行微調(diào)以執(zhí)行實際的分割。

BT-Unet由 Indian Institute of Information Technology Allahabad開發(fā),發(fā)布在2022年的JML上。

BT-Unet

圖片

BT-Unet架構(gòu)圖:a、預(yù)訓(xùn)練U-Net編碼器網(wǎng)絡(luò),b、用預(yù)訓(xùn)練的編碼器權(quán)值初始化的微調(diào)U-Net模型

BT-Unet框架分為兩個階段:1)預(yù)訓(xùn)練階段和2)微調(diào)階段。

預(yù)訓(xùn)練

預(yù)訓(xùn)練的目的是使用無注釋的數(shù)據(jù)樣本,學(xué)習(xí)復(fù)雜的特征表示。U-Net模型的編碼器使用Barlow Twins (BT)策略進(jìn)行預(yù)先訓(xùn)練,然后進(jìn)行微調(diào)以執(zhí)行實際的分割:

BT-Unet框架可應(yīng)用于各種先進(jìn)的U-Net模型:經(jīng)典U-Net、注意力U-Net (A-Unet)、inception U-Net (I-Unet)和residual cross-spatial attention guided inception  U-Net (RCA-IUnet)。

微調(diào)

U-Net 模型中編碼器網(wǎng)絡(luò)的權(quán)重使用預(yù)訓(xùn)練權(quán)重(來自第一階段)進(jìn)行初始化,而網(wǎng)絡(luò)的其余部分使用默認(rèn)權(quán)重進(jìn)行初始化。

使用有限的注釋樣本對 U-Net 模型進(jìn)行微調(diào),用于生物醫(yī)學(xué)圖像分割。

U-Net 模型使用分段損失函數(shù)進(jìn)行微調(diào),L 定義為二元交叉熵?fù)p失、LBC 和dice coefficient損失的平均值,LDC:

其中,y為像素的真值標(biāo)簽,p(y)為像素的預(yù)測標(biāo)簽,N為像素的總數(shù)量。

結(jié)果表現(xiàn)

論文使用下面的數(shù)據(jù)集進(jìn)行評測對比:

基于相同樣本數(shù)量的小訓(xùn)練集的性能分析

  • KDSB18:BTU-Net 模型的性能優(yōu)于沒有使用 BT方法 的模型。
  • BUSIS:U-Net 和 A-Unet 模型無法學(xué)習(xí)和提取有關(guān)腫瘤區(qū)域的特征圖(精度、DC 和 mIoU 為 0),但是通過預(yù)訓(xùn)練,這些模型取得了顯著的改進(jìn)。在 I-Unet 和 RCAIUnet 模型的情況下,通過預(yù)訓(xùn)練可以得到相當(dāng)大的改進(jìn)。
  • ISIC18:I-Unet 和 RCAIUnet 模型是影響最大的網(wǎng)絡(luò),精度分別提高了 5.1% 和 2.2%。然而,在使用 BT 預(yù)訓(xùn)練時,經(jīng)典的U-Net 和 A-Unet 的性能略有下降。
  • BraTS18:I-Unet 和 RCA-IUnet 模型在使用 BT-Unet 框架時在分割性能上取得了顯著提升,而普通 U-Net 和 A-Unet 模型則沒有觀察到相同的行為。

在不同規(guī)模小型訓(xùn)練集的性能研究

圖片

對于所有訓(xùn)練數(shù)據(jù)比例小于50%的數(shù)據(jù)集,在模型之間觀察到類似的性能變化。

定性結(jié)果

圖片

帶有BT的RCA-IUNet具有很好的分割效果。

責(zé)任編輯:華軒 來源: DeepHub IMBA
相關(guān)推薦

2014-08-21 09:16:45

生物醫(yī)學(xué)

2022-05-17 16:38:40

數(shù)據(jù)訓(xùn)練

2023-11-23 15:54:01

人工智能監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)

2022-11-23 13:36:38

模型研究

2024-06-13 11:44:43

2024-07-30 11:20:00

圖像視覺

2024-05-24 15:53:20

視覺圖像

2021-06-23 15:45:55

神經(jīng)網(wǎng)絡(luò)AI算法

2020-04-28 17:26:04

監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)機器學(xué)習(xí)

2024-04-01 07:30:00

機器人人工智能

2010-01-27 10:11:44

曙光超算HPC

2017-06-12 14:04:45

深度學(xué)習(xí)人工智能

2023-11-27 15:34:51

大語言模型PubMedBERT

2021-11-08 22:42:51

機器學(xué)習(xí)監(jiān)督學(xué)習(xí)數(shù)據(jù)

2023-11-28 12:03:46

人工智能無監(jiān)督學(xué)習(xí)算法

2020-08-14 11:00:44

機器學(xué)習(xí)人工智能機器人

2020-08-16 11:34:43

人工智能機器學(xué)習(xí)技術(shù)

2021-12-31 14:11:20

框架AI開發(fā)

2019-10-14 10:40:03

機器學(xué)習(xí)人工智能非監(jiān)督學(xué)習(xí)

2015-10-12 10:37:42

學(xué)習(xí)算法檢測
點贊
收藏

51CTO技術(shù)棧公眾號