自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

卷積網(wǎng)絡(luò)又雙叒叕行了?OverLoCK:一種仿生的卷積神經(jīng)網(wǎng)絡(luò)視覺基礎(chǔ)模型

人工智能 新聞
近期,香港大學(xué)將這種認(rèn)知模式引入到了 Vision Backbone 的設(shè)計中,從而構(gòu)建了一種全新的基于動態(tài)卷積的視覺基礎(chǔ)模型,稱為?OverLoCK。

作者是香港大學(xué)俞益洲教授與博士生婁蒙。

你是否注意過人類觀察世界的獨(dú)特方式?

當(dāng)面對復(fù)雜場景時,我們往往先快速獲得整體印象,再聚焦關(guān)鍵細(xì)節(jié)。這種「縱觀全局 - 聚焦細(xì)節(jié)(Overview-first-Look-Closely-next)」的雙階段認(rèn)知機(jī)制是人類視覺系統(tǒng)強(qiáng)大的主要原因之一,也被稱為 Top-down Attention。

雖然這種機(jī)制在許多視覺任務(wù)中得到應(yīng)用,但是如何利用這種機(jī)制來構(gòu)建強(qiáng)大的 Vision Backbone 卻尚未得到充分研究。

近期,香港大學(xué)將這種認(rèn)知模式引入到了 Vision Backbone 的設(shè)計中,從而構(gòu)建了一種全新的基于動態(tài)卷積的視覺基礎(chǔ)模型,稱為 OverLoCK (Overview-first-Look-Closely-next ConvNet with Context-Mixing Dynamic Kernels)。該模型在 ImageNet、COCO、ADE20K 三個極具挑戰(zhàn)性的數(shù)據(jù)集上展現(xiàn)出了強(qiáng)大的性能。例如,30M 的參數(shù)規(guī)模的 OverLoCK-Tiny 模型在 ImageNet-1K 達(dá)到了 84.2% 的 Top-1 準(zhǔn)確率,相比于先前 ConvNet, Transformer 與 Mamba 模型具有明顯的優(yōu)勢。

圖片

論文標(biāo)題:OverLoCK: An Overview-first-Look-Closely-next ConvNet with Context-Mixing Dynamic Kernels

論文鏈接:https://arxiv.org/abs/2502.20087

代碼鏈接:https://github.com/LMMMEng/OverLoCK

動機(jī)

Top-down Attention 機(jī)制中的一個關(guān)鍵特性是利用大腦獲得的反饋信號作為顯式的信息指導(dǎo),從而在場景中定位關(guān)鍵區(qū)域。然而,現(xiàn)有大多數(shù) Vision Backbone 網(wǎng)絡(luò)(例如 Swin, ConvNeXt, 和 VMamba)采用的仍然是經(jīng)典的金字塔架構(gòu):從低層到高層逐步編碼特征,每層的輸入特征僅依賴于前一層的輸出特征,導(dǎo)致這些方法缺乏顯式的自上而下的語義指導(dǎo)。因此,開發(fā)一種既能實現(xiàn) Top-down Attention 機(jī)制,又具有強(qiáng)大性能的卷積網(wǎng)絡(luò),仍然是一個懸而未決的問題。

通常情況下,Top-down Attention 首先會生成較為粗糙的全局信息作為先驗知識,為了充分利用這種信息,token mixer 應(yīng)該具備強(qiáng)大動態(tài)建模能力。具體而言,token mixer 應(yīng)當(dāng)既能形成大感受野來自適應(yīng)地建立全局依賴關(guān)系,又能保持局部歸納偏置以捕捉精細(xì)的局部特征。然而我們發(fā)現(xiàn),現(xiàn)有的卷積方法無法同時滿足這些需求:不同于 Self-attention 和 SSM 能夠在不同輸入分辨率下自適應(yīng)建模長距離依賴,大核卷積和動態(tài)卷積由于固定核尺寸的限制,即使面對高分辨率輸入時仍局限于有限區(qū)域。此外,盡管 Deformable 卷積能在一定程度上緩解這個問題,但其可變的 kernel 形態(tài)會犧牲卷積固有的歸納偏置,從而會弱化局部感知能力。因此,如何在保持強(qiáng)歸納偏置的前提下,使純卷積網(wǎng)絡(luò)獲得與 Transformer 和 Mamba 相媲美的動態(tài)全局建模能力,同樣是亟待解決的關(guān)鍵問題。

方法 

讓 Vision Backbone 網(wǎng)絡(luò)具備人類視覺的兩步走機(jī)制

研究團(tuán)隊從神經(jīng)科學(xué)獲得關(guān)鍵啟發(fā):人類視覺皮層通過 Top-down Attention,先形成整體認(rèn)知再指導(dǎo)細(xì)節(jié)分析(Overview-first-Look-Closely-next)。據(jù)此,研究團(tuán)隊摒棄了先前 Vision Backbone 網(wǎng)絡(luò)中經(jīng)典的金字塔策略,轉(zhuǎn)而提出了一種新穎的深度階段分解(DDS, Deep-stage Decomposition) 策略來構(gòu)建 Vision Backbone 網(wǎng)絡(luò),該機(jī)制構(gòu)建的 Vision Backbone 具有 3 個子模型:

  • Base-Net:聚焦于提取中低層特征,相當(dāng)于視覺系統(tǒng)的「視網(wǎng)膜」,利用了 UniRepLKNet 中的 Dilated RepConv Layer 來作為 token mixer,從而實現(xiàn)高效的 low-level 信息感知。
  • Overview-Net:提取較為粗糙的高級語義信息,完成「第一眼認(rèn)知」。同樣基于 Dilated RepConv Layer 為 token mixer,快速獲得 high-level 語義信息作為 Top-down Guidance。
  • Focus-Net:在全局先驗知識的引導(dǎo)下進(jìn)行精細(xì)分析,實現(xiàn)「凝視觀察」?;谝环N全新的動態(tài)卷積 ContMix 和一種 Gate 機(jī)制來構(gòu)建基本 block,旨在充分利用 Top-down Guidance 信息。

來自 Overview-Net 的 Top-down Guidance 不僅會在特征和 kernel 權(quán)重兩個層面對 Focus-Net 進(jìn)行引導(dǎo),還會沿著前向傳播過程在每個 block 中持續(xù)更新。具體而言,Top-down Guidance 會同時參與計算 Gate 和生成動態(tài)卷積權(quán)重,還會整合到 feature map 中,從而全方位地將 high-level 語義信息注入到 Focus-Net 中,獲得更為魯棒的特征表示能力。

圖片

圖 1 OverLoCK 模型整體框架和基本模塊

圖片

圖 2 ContMix 框架圖

具有強(qiáng)大 Context-Mixing 能力的動態(tài)卷積 --- ContMix

為了能夠更好地適應(yīng)不同輸入分辨率,同時保持強(qiáng)大的歸納偏置,進(jìn)而充分利用 Overview-Net 提供的 Top-down Guidance,研究團(tuán)隊提出了一種新的動態(tài)卷積模塊 --- ContMix。其核心創(chuàng)新在于通過計算特征圖中每個 token 與多個區(qū)域的中心 token 的 affinity map 來表征該 token 與全局上下文的聯(lián)系,進(jìn)而以可學(xué)習(xí)方式將 affinity map 轉(zhuǎn)換為動態(tài)卷積核,并將全局上下文信息注入到卷積核內(nèi)部的每個權(quán)重。當(dāng)動態(tài)卷積核通過滑動窗口作用于特征圖時,每個 token 都會與全局信息發(fā)生調(diào)制。簡言之,即便是在局部窗口進(jìn)行操作,ContMix 仍然具備強(qiáng)大的全局建模能力。實驗中,我們發(fā)現(xiàn)將當(dāng)前輸入的 feature map 作為 query,并將 Top-down Guidance 作為 key 來計算動態(tài)卷積核,相較于使用二者級聯(lián)得到的特征生成的 query/key pairs 具有更好的性能。

實驗結(jié)果

圖像分類

OverLoCK 在大規(guī)模數(shù)據(jù)集 ImageNet-1K 上表現(xiàn)出了卓越的性能,相較于現(xiàn)有方法展現(xiàn)出更為出色的性能以及更加優(yōu)秀的 tradeoff。例如,OverLoCK 在近似同等參數(shù)量的條件下大幅超越了先前的大核卷積網(wǎng)絡(luò) UniRepLKNet。同時,相較于基于 Gate 機(jī)制構(gòu)建的卷積網(wǎng)絡(luò) MogaNet 也具有非常明顯的優(yōu)勢。

圖片

表 1 ImageNet-1K 圖像分類性能比較

目標(biāo)檢測和實例分割

如表 2 所示,在 COCO 2017 數(shù)據(jù)集上,OverLoCK 同樣展示出了更優(yōu)的性能。例如,使用 Mask R-CNN (1× Schedule) 為基本框架時,OverLoCK-S 在 APb 指標(biāo)上相較于 BiFormer-B 和 MogaNet-B 分別提升了 0.8% 和 1.5%。在使用 Cascade Mask R-CNN 時,OverLoCK-S 分別比 PeLK-S 和 UniRepLKNet-S 提升了 1.4% 和 0.6% APb。值得注意的是,盡管基于卷積網(wǎng)絡(luò)的方法在圖像分類任務(wù)中與 Transformer 類方法表現(xiàn)相當(dāng),但在檢測任務(wù)上卻存在明顯性能差距。以 MogaNet-B 和 BiFormer-B 為例,兩者在 ImageNet-1K 上都達(dá)到 84.3% 的 Top-1 準(zhǔn)確率,但在檢測任務(wù)中前者性能明顯落后于后者。這一發(fā)現(xiàn)有力印證了我們之前的論點 — 卷積網(wǎng)絡(luò)固定尺寸的卷積核導(dǎo)致有限感受野,當(dāng)采用大分辨率輸入時可能會性能下降。相比之下,我們提出的 OverLoCK 網(wǎng)絡(luò)即使在大分辨率場景下也能有效捕捉長距離依賴關(guān)系,從而展現(xiàn)出卓越性能。

圖片

表 2 目標(biāo)檢測和實例分割性能比較

圖片

表 3 語義分割性能比較

語義分割

如表 3 所示,OverLoCK 在 ADE20K 上也進(jìn)行了全面的評估,其性能在與一些強(qiáng)大的 Vision Backbone 的比較中脫穎而出,并且有著更優(yōu)秀的 tradeoff。例如,OverLoCK-T 以 1.1% mIoU 的優(yōu)勢超越 MogaNet-S,較 UniRepLKNet-T 提升 1.7%。更值得一提的是,即便與強(qiáng)調(diào)全局建模能力的 VMamba-T 相比,OverLoCK-T 仍保持 2.3% mIoU 的顯著優(yōu)勢。

消融研究

值得注意的是,所提出的 ContMix 是一種即插即用的模塊。因此,我們基于不同的 token mixer 構(gòu)建了類似的金字塔架構(gòu)。如表 4 所示,我們的 ContMix 相較于其他 mixer 具有明顯的優(yōu)勢,這種優(yōu)勢在更高分辨率的語義分割任務(wù)上尤為明顯,這主要是因為 ContMix 具有強(qiáng)大的全局建模能力(更多實驗請參見原文)。

圖片

表 4 不同 token mixer 的性能比較

可視化研究

不同 vision backbone 網(wǎng)絡(luò)的有效感受野對比:如圖 3 所示,OverLoCK 在具有最大感受野的同時還具備顯著的局部敏感度,這是其他網(wǎng)絡(luò)無法兼?zhèn)涞哪芰Α?/span>

Top-down Guidance 可視化:為了直觀呈現(xiàn) Top-down Guidance 的效果,我們采用 Grad-CAM 對 OverLoCK 中 Overview-Net 與 Focus-Net 生成的特征圖進(jìn)行了對比分析。如圖 4 所示,Overview-Net 首先生成目標(biāo)物體的粗粒度定位,當(dāng)該信號作為 Top-down Guidance 注入 Focus-Net 后,目標(biāo)物體的空間定位和輪廓特征被顯著精細(xì)化。這一現(xiàn)象和人類視覺中 Top-down Attention 機(jī)制極為相似,印證了 OverLoCK 的設(shè)計合理性。

圖片

圖 3 有效感受野比較

圖片

圖 4 Top-down guidance 可視化

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2017-03-13 16:58:05

戴爾

2019-01-05 08:40:17

VGG神經(jīng)網(wǎng)絡(luò)

2017-05-04 18:30:34

大數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)

2022-04-07 09:01:52

神經(jīng)網(wǎng)絡(luò)人工智能

2021-06-29 09:53:06

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2018-04-08 11:20:43

深度學(xué)習(xí)

2020-08-14 10:20:49

神經(jīng)網(wǎng)絡(luò)人工智能池化層

2022-10-11 23:35:28

神經(jīng)網(wǎng)絡(luò)VGGNetAlexNet

2020-03-25 09:48:10

AI芯片神經(jīng)網(wǎng)絡(luò)

2018-08-27 17:05:48

tensorflow神經(jīng)網(wǎng)絡(luò)圖像處理

2024-11-11 00:00:02

卷積神經(jīng)網(wǎng)絡(luò)算法

2024-12-04 10:33:17

2022-06-16 10:29:33

神經(jīng)網(wǎng)絡(luò)圖像分類算法

2024-09-24 07:28:10

2017-04-18 12:21:01

神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)設(shè)計模式

2018-11-08 17:57:22

華為

2021-10-30 19:01:17

磁盤字節(jié)文件

2017-04-26 09:30:53

卷積神經(jīng)網(wǎng)絡(luò)實戰(zhàn)

2024-09-20 07:36:12

2024-10-28 00:38:10

點贊
收藏

51CTO技術(shù)棧公眾號