自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

新聞 機器學(xué)習(xí)
來自阿德萊德大學(xué)、同濟大學(xué)、字節(jié)跳動的研究者設(shè)計了一種簡單且有效的密集自監(jiān)督學(xué)習(xí)方法,大幅縮小了自監(jiān)督預(yù)訓(xùn)練與密集預(yù)測任務(wù)之間的鴻溝。

 [[399115]]

預(yù)訓(xùn)練已被證實能夠大大提升下游任務(wù)的性能。傳統(tǒng)方法中經(jīng)常利用大規(guī)模的帶圖像標注分類數(shù)據(jù)集(如 ImageNet)進行模型監(jiān)督預(yù)訓(xùn)練,近年來自監(jiān)督學(xué)習(xí)方法的出現(xiàn),讓預(yù)訓(xùn)練任務(wù)不再需要昂貴的人工標簽。然而,絕大多數(shù)方法都是針對圖像分類進行設(shè)計和優(yōu)化的。但圖像級別的預(yù)測和區(qū)域級別 / 像素級別存在預(yù)測差異,因此這些預(yù)訓(xùn)練模型在下游的密集預(yù)測任務(wù)上的性能可能不是最佳的。

基于此,來自阿德萊德大學(xué)、同濟大學(xué)、字節(jié)跳動的研究者設(shè)計了一種簡單且有效的密集自監(jiān)督學(xué)習(xí)方法,不需要昂貴的密集人工標簽,就能在下游密集預(yù)測任務(wù)上實現(xiàn)出色的性能。目前該論文已被 CVPR 2021 接收。

論文地址:
https://arxiv.org/pdf/2011.09157

代碼地址:
https://github.com/WXinlong/DenseCL

方法

該研究提出的新方法 DenseCL(Dense Contrastive Learning)通過考慮局部特征之間的對應(yīng)關(guān)系,直接在輸入圖像的兩個視圖之間的像素(或區(qū)域)特征上優(yōu)化成對的對比(不相似)損失來實現(xiàn)密集自監(jiān)督學(xué)習(xí)。

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

兩種用于表征學(xué)習(xí)的對比學(xué)習(xí)范式的概念描述圖。

現(xiàn)有的自監(jiān)督框架將同一張圖像的不同數(shù)據(jù)增強作為一對正樣本,利用剩余圖像的數(shù)據(jù)增強作為其負樣本,構(gòu)建正負樣本對實現(xiàn)全局對比學(xué)習(xí),這往往會忽略局部特征的聯(lián)系性與差異性。該研究提出的方法在此基礎(chǔ)上,將同一張圖像中最為相似的兩個像素(區(qū)域)特征作為一對正樣本,而將余下所有的像素(區(qū)域)特征作為其負樣本實現(xiàn)密集對比學(xué)習(xí)。

具體而言,該方法去掉了已有的自監(jiān)督學(xué)習(xí)框架中的全局池化層,并將其全局映射層替換為密集映射層實現(xiàn)。在匹配策略的選擇上,研究者發(fā)現(xiàn)最大相似匹配和隨機相似匹配對最后的精度影響非常小。與基準方法 MoCo-v2[1] 相比,DenseCL 引入了可忽略的計算開銷(僅慢了不到 1%),但在遷移至下游密集任務(wù)(如目標檢測、語義分割)時,表現(xiàn)出了十分優(yōu)異的性能。DenseCL 的總體損失函數(shù)如下:

模型性能

該研究進行消融實驗評估了匹配策略對下游任務(wù)的性能影響,結(jié)果如下表所示。

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

另一組消融實驗評估了預(yù)訓(xùn)練區(qū)域數(shù)量對下游任務(wù)的性能影響,結(jié)果如下表所示。

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

下圖展示了該方法遷移至下游密集任務(wù)的性能增益:

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

隨著訓(xùn)練時間的延長,該研究進一步提供了與基線的直觀比較,表明 DenseCL 始終比 MoCo-v2 的性能高出至少 2%:

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

DenseCL 與 MoCo-v2 的預(yù)訓(xùn)練時間消耗對比如下:

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

下圖對高相似度匹配進行了可視化,旨在描述局部語義特征間的對應(yīng)關(guān)系:

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

如下圖所示,帶有隨機初始化的大多數(shù)匹配都是不正確的,從圖中可以看出隨著訓(xùn)練時間的變化,對應(yīng)關(guān)系發(fā)生了改變。

無需密集人工標簽,用于下游密集預(yù)測任務(wù)的自監(jiān)督學(xué)習(xí)方法出爐

[1] Improved baselines with momentum contrastive learning. Chen, Xinlei and Fan, Haoqi and Girshick, Ross and He, Kaiming

 

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-07-07 17:19:07

人工智能代碼開源

2025-02-24 09:00:00

CPUI/O密集型任務(wù)

2022-05-17 16:38:40

數(shù)據(jù)訓(xùn)練

2023-04-24 16:31:03

計算機模型

2023-04-18 17:23:00

Meta開源

2023-11-23 15:54:01

人工智能監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)

2024-08-16 08:15:02

2020-04-28 17:26:04

監(jiān)督學(xué)習(xí)無監(jiān)督學(xué)習(xí)機器學(xué)習(xí)

2023-11-28 12:03:46

人工智能無監(jiān)督學(xué)習(xí)算法

2023-02-14 15:11:19

工具模型

2023-11-10 09:31:29

自動駕駛訓(xùn)練

2017-06-12 14:04:45

深度學(xué)習(xí)人工智能

2022-11-29 15:38:01

學(xué)習(xí)框架編碼器數(shù)據(jù)

2022-06-14 07:07:57

網(wǎng)絡(luò)威脅無監(jiān)督數(shù)據(jù)泄露

2011-11-11 09:11:09

云計算HPC集群

2021-11-08 22:42:51

機器學(xué)習(xí)監(jiān)督學(xué)習(xí)數(shù)據(jù)

2025-04-25 08:00:00

2020-09-07 07:33:01

NodejsCPU密集型

2021-03-18 09:28:20

人工智能機器學(xué)習(xí)技術(shù)

2020-08-14 11:00:44

機器學(xué)習(xí)人工智能機器人
點贊
收藏

51CTO技術(shù)棧公眾號