自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

CV的未來是圖神經網絡?中科院軟件所發(fā)布全新CV模型ViG,性能超越ViT

人工智能 新聞
最近,中科院軟件所等四個機構的研究團隊將CV與圖神經網絡結合起來,提出全新模型ViG,在等量參數情況下,性能超越ViT,可解釋性也有所提升。

?計算機視覺的網絡結構又要迎來革新了?

從卷積神經網絡到帶注意力機制的視覺Transformer,神經網絡模型都是把輸入圖像視為一個網格或是patch序列,但這種方式無法捕捉到變化的或是復雜的物體。

比如人在觀察圖片的時候,就會很自然地就將整個圖片分為多個物體,并在物體間建立空間等位置關系,也就是說整張圖片對于人腦來說實際上是一張graph,物體則是graph上的節(jié)點。

 

圖片

 最近中科院軟件研究所、華為諾亞方舟實驗室、北京大學、澳門大學的研究人員聯(lián)合提出了一個全新的模型架構Vision GNN (ViG),能夠從圖像中抽取graph-level的特征用于視覺任務。

圖片

論文鏈接:https://arxiv.org/pdf/2206.00272.pdf

首先需要將圖像分割成若干個patch作為圖中的節(jié)點,并通過連接最近的鄰居patch構建一個graph,然后使用ViG模型對整個圖中所有節(jié)點的信息進行變換(transform)和交換(exchange)。

ViG 由兩個基本模塊組成,Grapher模塊用graph卷積來聚合和更新圖形信息,FFN模塊用兩個線性層來變換節(jié)點特征。

在圖像識別和物體檢測任務上進行的實驗也證明了ViG架構的優(yōu)越性,GNN在一般視覺任務上的開創(chuàng)性研究將為未來的研究提供有益的啟發(fā)和經驗。

論文作者為吳恩華教授,中國科學院軟件研究所博士生導師、澳門大學名譽教授,1970年本科畢業(yè)于清華大學工程力學數學系,1980年博士畢業(yè)于英國曼徹斯特大學計算機科學系。主要研究領域為計算機圖形學與虛擬現實, 包括: 虛擬現實 、真實感圖形生成、 基于物理的仿真與實時計算、 基于物理的建模與繪制、 圖像與視頻的處理與建模、 視覺計算與機器學習。

視覺GNN

網絡結構往往是提升性能最關鍵的要素,只要能保證數據量的數量和質量,把模型從CNN換到ViT,就能得到一個性能更佳的模型。

但不同的網絡對待輸入圖像的處理方式也不同,CNN在圖像上滑動窗口,引入平移不變性和局部特征。

而ViT和多層感知機(MLP)則是將圖像轉換為一個patch序列,比如把224×224的圖像分成若干個16×16的patch,最后形成一個長度為196的輸入序列。

圖片

 圖神經網絡則更加靈活,比如在計算機視覺中,一個基本任務是識別圖像中的物體。由于物體通常不是四邊形的,可能是不規(guī)則的形狀,所以之前的網絡如ResNet和ViT中常用的網格或序列結構是多余的,處理起來不靈活。

一個物體可以被看作是由多個部分組成的,例如,一個人可以大致分為頭部、上半身、胳膊和腿。

這些由關節(jié)連接的部分很自然地形成了一個圖形結構,通過分析圖,我們最后才能夠識別出這個物體可能是個人類。

此外,圖是一種通用的數據結構,網格和序列可以被看作是圖的一個特例。將圖像看作是一個圖,對于視覺感知來說更加靈活和有效。

使用圖結構需要將輸入的圖像劃分為若干個patch,并將每個patch視為一個節(jié)點,如果將每個像素視為一個節(jié)點的話就會導致圖中節(jié)點數量過多(>10K)。

圖片

 建立graph后,首先通過一個圖卷積神經網絡(GCN)聚合相鄰節(jié)點間的特征,并抽取圖像的表征。

圖片

 為了讓GCN獲取更多樣性的特征,作者將圖卷積應用multi-head操作,聚合的特征由不同權重的head進行更新,最后級聯(lián)為圖像表征。

圖片

 以前的GCN通常重復使用幾個圖卷積層來提取圖數據的聚合特征,而深度GCN中的過度平滑現象則會降低節(jié)點特征的獨特性,導致視覺識別的性能下降。

圖片

 為了緩解這個問題,研究人員在ViG塊中引入了更多的特征轉換和非線性激活函數。

首先在圖卷積的前后應用一個線性層,將節(jié)點特征投射到同一域中,增加特征多樣性。在圖形卷積之后插入一個非線性激活函數以避免層崩潰。

圖片

 為了進一步提高特征轉換能力,緩解過度平滑現象,還需要在每個節(jié)點上利用前饋網絡(FFN)。FFN模塊是一個簡單的多層感知機,有兩個全連接的層。

 圖片

 在Grapher和FFN模塊中,每一個全連接層或圖卷積層之后都要進行batch normalization,Grapher模塊和FFN模塊的堆疊構成了一個ViG塊,也是構建大網絡的基本單元。

與原始的ResGCN相比,新提出的ViG可以保持特征的多樣性,隨著加入更多的層,網絡也可以學習到更強的表征。

在計算機視覺的網絡架構中,常用的Transformer模型通常有一個等向性(Isotropic)的結構(如ViT),而CNN更傾向于使用金字塔結構(如ResNet)。

為了與其他類型的神經網絡進行比較,研究人員為ViG同時建立了等向性和金字塔的兩種網絡架構。

圖片

 在實驗對比階段,研究人員選擇了圖像分類任務中的ImageNet ILSVRC 2012數據集,包含1000個類別,120M的訓練圖像和50K的驗證圖像。

目標檢測任務中,選擇了有80個目標類別的COCO 2017數據集,包含118k個訓練圖片和5000個驗證集圖片。

圖片

 在等向性的ViG架構中,其主要計算過程中可以保持特征大小不變,易于擴展,對硬件加速友好。在將其與現有的等向性的CNN、Transformer和MLP進行比較后可以看到,ViG比其他類型的網絡表現得更好。其中ViG-Ti實現了73.9%的top-1準確率,比DeiT-Ti模型高1.7%,而計算成本相似。

圖片

 金字塔結構的ViG中,隨著網絡的加深逐漸縮小了特征圖的空間大小,利用圖像的尺度不變量特性,同時產生多尺度的特征。

高性能的網絡大多采用金字塔結構,如ResNet、Swin Transformer和CycleMLP。在將Pyramid ViG與這些有代表性的金字塔網絡進行比較后,可以看到Pyramid ViG系列可以超越或媲美最先進的金字塔網絡包括CNN、MLP和Transfomer。

結果表明,圖神經網絡可以很好地完成視覺任務,并有可能成為計算機視覺系統(tǒng)中的一個基本組成部分。

圖片

 為了更好地理解ViG模型的工作流程,研究人員將ViG-S中構建的圖結構可視化。在兩個不同深度的樣本(第1和第12塊)的圖。五角星是中心節(jié)點,具有相同顏色的節(jié)點是其鄰居。只有兩個中心節(jié)點是可視化的,因為如果繪制所有的邊會顯得很亂。

圖片

 可以觀察到,ViG模型可以選擇與內容相關的節(jié)點作為第一階鄰居。在淺層,鄰居節(jié)點往往是根據低層次和局部特征來選擇的,如顏色和紋理。在深層,中心節(jié)點的鄰居更具語義性,屬于同一類別。 ViG網絡可以通過其內容和語義表征逐漸將節(jié)點聯(lián)系起來,幫助更好地識別物體。?

責任編輯:張燕妮 來源: 新智元
相關推薦

2019-12-26 09:25:48

量子芯片網絡

2020-01-16 15:20:48

編程語言PythonJava

2022-06-07 11:14:23

神經網絡AI中科院

2022-02-19 08:21:21

中科院量子計算編程軟件

2025-03-05 14:00:00

2010-11-08 15:26:31

曙光服務器

2018-05-04 13:31:00

人工智能芯片云端

2011-12-28 17:30:17

開放平臺

2016-11-18 13:24:14

網絡升級銳捷

2020-12-17 16:50:28

曙光

2023-05-05 10:04:21

開源操作系統(tǒng)

2018-02-23 12:41:05

阿里云處理器量子

2019-01-16 15:21:12

中科院大數據數據庫

2017-05-15 15:07:36

納米材料農藥

2016-03-30 10:29:25

神經網絡處理器神經網絡DianNaoYu

2017-10-11 20:03:51

阿里云南京云棲

2025-02-08 13:30:00

2009-07-18 13:10:20

中科院中國網絡戰(zhàn)

2024-03-07 12:31:29

AI技術

2023-04-06 13:45:50

模型
點贊
收藏

51CTO技術棧公眾號