自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

把大核卷積拆成三步,清華胡事民團(tuán)隊(duì)新視覺Backbone刷榜三大任務(wù)

人工智能 新聞
現(xiàn)在一種全新Backbone——VAN(Visiual Attention Network, 視覺注意力網(wǎng)絡(luò))再次引起學(xué)界關(guān)注。

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

在視覺任務(wù)上,CNN、ViT各有各的優(yōu)勢和劣勢。

于是,以經(jīng)典Backbone為基礎(chǔ)、細(xì)節(jié)上相互借鑒,成了最近一個(gè)熱門研究方向。

前有微軟SwinTransformer引入CNN的滑動窗口等特性,刷榜下游任務(wù)并獲馬爾獎(jiǎng)。

后有Meta AI的ConvNeXT用ViT上的大量技巧魔改ResNet后實(shí)現(xiàn)性能反超。

現(xiàn)在一種全新Backbone——VAN(Visiual Attention Network, 視覺注意力網(wǎng)絡(luò))再次引起學(xué)界關(guān)注。

因?yàn)樾履P驮僖淮?strong>刷榜三大視覺任務(wù),把上面那兩位又都給比下去了。

VAN號稱同時(shí)吸收了CNN和ViT的優(yōu)勢且簡單高效,精度更高的同時(shí)參數(shù)量和計(jì)算量還更小。

VAN來自清華計(jì)圖胡事民團(tuán)隊(duì),他們提出一個(gè)標(biāo)準(zhǔn)大核卷積可以拆解成三部分

深度卷積(DW-Conv)、深度擴(kuò)張卷積(DW-D-Conv)和1 × 1卷積(1 × 1 Conv)。

更關(guān)鍵的是,再加上一步element-wise相乘可以獲得類似注意力的效果,團(tuán)隊(duì)把新的卷積模塊命名為大核注意力LKA(Large Kernel Attention)

論文最后還提到,現(xiàn)在的VAN只是一個(gè)直覺的原始版本、沒有仔細(xì)打磨,也就是說后續(xù)還有很大提升潛力。

(代碼已開源,地址在文末)

拆解大核卷積能算注意力

注意力機(jī)制,可以理解為一種自適應(yīng)選擇過程,能根據(jù)輸入辨別出關(guān)鍵特征并自動忽略噪聲。

關(guān)鍵步驟是學(xué)習(xí)輸入數(shù)據(jù)的長距離依賴,生成注意力圖。

有兩種常用方法來生成注意圖。

第一種是從NLP來的自注意力機(jī)制,但用在視覺上還有一些不足,比如把圖像轉(zhuǎn)換為一維序列會忽略其二維結(jié)構(gòu)。

第二種是視覺上的大核卷積方法,但計(jì)算開銷又太大。

為克服上面的問題,團(tuán)隊(duì)提出的LKA方法把大核卷積拆解成三部分。

設(shè)擴(kuò)張間隔為d,一個(gè)K x K的卷積可以拆解成K/d x K/d的深度擴(kuò)張卷積,一個(gè)(2d ? 1) × (2d ? 1)的深度卷積核一個(gè)1 x 1的point-wise卷積。

△c為通道(channel)

這樣做,在捕捉到長距離依賴的同時(shí)節(jié)省了計(jì)算開銷,進(jìn)一步可以生成注意力圖。

LKA方法不僅綜合了卷積和自注意力的優(yōu)勢,還額外獲得了通道適應(yīng)性。

在CNN里,LKA方法與MobileNet的兩部分拆解法類似,增加的深度擴(kuò)張卷積可以捕獲長距離依賴。

與ViT相比,解決了自注意力的二次復(fù)雜度對高分辨率圖像計(jì)算代價(jià)太大的問題,

MLP架構(gòu)中的gMLP也引入了注意力機(jī)制,但只能處理固定分辨率的圖像,且只關(guān)注了全局特征,忽略了圖像的局部結(jié)構(gòu)。

從理論上來說,LKA方法綜合了各方優(yōu)勢,同時(shí)克服了上述缺點(diǎn)。

那么,實(shí)際效果如何?

新Backbone刷榜三大任務(wù)

根據(jù)LKA方法設(shè)計(jì)的新Backbone網(wǎng)絡(luò)VAN,延續(xù)了經(jīng)典的四階段設(shè)計(jì),具體配置如下。

每個(gè)階段的結(jié)構(gòu)如圖所示,其中下采樣率由步長控制,CFF代表卷積前饋網(wǎng)絡(luò)( convolutional feed-forward network)

假輸入和輸出擁有相等的寬高和通道數(shù),可以算出計(jì)算復(fù)雜性。

其中當(dāng)卷積核大小(K)為21時(shí),擴(kuò)張間隔(d)取3可以讓參數(shù)量最小,便以此為默認(rèn)配置。

團(tuán)隊(duì)認(rèn)為按此配置對于全局特征和局部特征的提取效果都比較理想。

最終,在ImageNet上不同規(guī)模的VAN精度都超過了各類CNN、ViT和MLP。

在COCO 2017目標(biāo)檢測任務(wù)上,以VAN為Backbone應(yīng)用多種檢測方法也都領(lǐng)先。

ADE20K語意分割任務(wù)上同樣如此。

而且正如前文所述,VAN未經(jīng)仔細(xì)打磨就已刷榜三大任務(wù),后續(xù)還有提升空間。

對于今后的改進(jìn)方向,團(tuán)隊(duì)表示可能會嘗試更大的卷積核,引入來自Res2Net的多尺度結(jié)構(gòu),或者Inception中的多分支結(jié)構(gòu)。

另外用VAN做圖像自監(jiān)督學(xué)習(xí)和遷移學(xué)習(xí),甚至能否做NLP都有待后續(xù)探索。

作者介紹

這篇論文來自清華大學(xué)計(jì)算機(jī)系胡事民團(tuán)隊(duì)。

胡事民教授是清華計(jì)圖框架團(tuán)隊(duì)的負(fù)責(zé)人,計(jì)圖框架則是首個(gè)由中國高校開源的深度學(xué)習(xí)框架。

一作博士生國孟昊,現(xiàn)就讀于清華大學(xué)計(jì)算機(jī)系,也是計(jì)圖團(tuán)隊(duì)的成員。

這次論文的代碼已經(jīng)開源,并且提供了Pytorch版和計(jì)圖框架兩種版本。

該團(tuán)隊(duì)之前有一篇視覺注意力的綜述,還成了arXiv上的爆款

配套的GitHub倉庫視覺注意力論文大合集Awesome-Vision-Attentions也有1.2k星。

最后八卦一下,莫非是團(tuán)隊(duì)研究遍了各種視覺注意力機(jī)制后,碰撞出這個(gè)新的思路?

也是666了。

論文地址:
??https://arxiv.org/abs/2202.09741??

GitHub地址:
??https://github.com/Visual-Attention-Network??

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2013-03-18 10:59:28

AMD戰(zhàn)略轉(zhuǎn)型

2019-07-30 08:30:40

Python主流數(shù)據(jù)庫

2021-03-02 07:02:45

Linux操作系統(tǒng)

2009-12-07 13:25:04

編程語言排行榜

2012-06-12 09:53:43

2011-07-13 09:54:22

VMware故障vSphere

2009-02-04 09:45:05

Java SocketSocket APIJava編程

2020-11-04 00:00:29

Kerberos協(xié)議身份

2024-09-12 14:46:03

2019-12-18 11:12:30

觀遠(yuǎn)數(shù)據(jù)

2012-08-08 17:05:36

App運(yùn)營

2021-05-31 20:24:16

鴻蒙HarmonyOS應(yīng)用

2009-11-10 12:55:26

VB.NET三維模型

2021-09-04 23:27:58

Axios源碼流程

2016-02-17 14:37:47

云遷移云退出戰(zhàn)略

2022-10-08 08:41:32

JDBCJavaLinux

2013-06-05 10:06:42

創(chuàng)業(yè)創(chuàng)業(yè)順序如何創(chuàng)業(yè)

2009-10-12 13:41:00

RHEL 內(nèi)核

2009-11-05 10:01:26

Visual Stud

2011-04-11 16:37:21

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號