自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

理解卷積神經網絡中的自注意力機制

人工智能 深度學習
卷積神經網絡(CNN)廣泛應用于深度學習和計算機視覺算法中。雖然很多基于CNN的算法符合行業(yè)標準,可以嵌入到商業(yè)產品中,但是標準的CNN算法仍然有局限性,在很多方面還可以改進。這篇文章討論了語義分割和編碼器-解碼器架構作為例子,闡明了其局限性,以及為什么自注意機制可以幫助緩解問題。

導讀

計算機視覺中的編解碼結構的局限性以及提升方法。

[[342535]]

卷積神經網絡(CNN)廣泛應用于深度學習和計算機視覺算法中。雖然很多基于CNN的算法符合行業(yè)標準,可以嵌入到商業(yè)產品中,但是標準的CNN算法仍然有局限性,在很多方面還可以改進。這篇文章討論了語義分割和編碼器-解碼器架構作為例子,闡明了其局限性,以及為什么自注意機制可以幫助緩解問題。

標準編解碼結構的局限性

 

圖1:標準編解碼結構

 

解碼器架構(圖1)是許多計算機視覺任務中的標準方法,特別是像素級預測任務,如語義分割、深度預測和一些與GAN相關的圖像生成器。在編碼器-解碼器網絡中,輸入圖像進行卷積、激活以及池化得到一個潛向量,然后恢復到與輸入圖像大小相同的輸出圖像。該架構是對稱的,由精心設計的卷積塊組成。由于其簡單和準確,該體系結構被廣泛使用。

 

圖2:卷積的計算

 

但是,如果我們深入研究卷積的計算(圖2),編碼器-解碼器架構的局限性就會浮出表面。例如,在3x3卷積中,卷積濾波器有9個像素,目標像素的值僅參照自身和周圍的8個像素計算。這意味著卷積只能利用局部信息來計算目標像素,這可能會帶來一些偏差,因為看不到全局信息。也有一些樸素的方法來緩解這個問題:使用更大的卷積濾波器或有更多卷積層的更深的網絡。然而,計算開銷越來越大,結果并沒有得到顯著的改善。

理解方差和協(xié)方差

方差和協(xié)方差都是統(tǒng)計學和機器學習中的重要概念。它們是為隨機變量定義的。顧名思義,方差描述的是單個隨機變量與其均值之間的偏差,而協(xié)方差描述的是兩個隨機變量之間的相似性。如果兩個隨機變量的分布相似,它們的協(xié)方差很大。否則,它們的協(xié)方差很小。如果我們將feature map中的每個像素作為一個隨機變量,計算所有像素之間的配對協(xié)方差,我們可以根據(jù)每個預測像素在圖像中與其他像素之間的相似性來增強或減弱每個預測像素的值。在訓練和預測時使用相似的像素,忽略不相似的像素。這種機制叫做自注意力。

 

方程 1: 兩個隨機變量X和Y的協(xié)方差

 

CNN中的自注意力機制

 

圖3: CNN中的自注意力機制

 

為了實現(xiàn)對每個像素級預測的全局參考,Wang等人在CNN中提出了自我注意機制(圖3)。他們的方法是基于預測像素與其他像素之間的協(xié)方差,將每個像素視為隨機變量。參與的目標像素只是所有像素值的加權和,其中的權值是每個像素與目標像素的相關。

如果我們將原來的圖3簡化為圖4,我們就可以很容易地理解協(xié)方差在機制中的作用。首先輸入高度為H、寬度為w的特征圖X,然后將X reshape為三個一維向量A、B和C,將A和B相乘得到大小為HWxHW的協(xié)方差矩陣。最后,我們用協(xié)方差矩陣和C相乘,得到D并對它reshape,得到輸出特性圖Y,并從輸入X進行殘差連接。這里D中的每一項都是輸入X的加權和,權重是像素和彼此之間的協(xié)方差。

利用自注意力機制,可以在模型訓練和預測過程中實現(xiàn)全局參考。該模型具有良好的bias-variance權衡,因而更加合理。

深度學習的一個可解釋性方法

 

圖5: SAGAN中的可解釋性圖像生成

 

SAGAN將自注意力機制嵌入GAN框架中。它可以通過全局參考而不是局部區(qū)域來生成圖像。在圖5中,每一行的左側圖像用顏色表示采樣的查詢點,其余五幅圖像為每個查詢點對應的關注區(qū)域。我們可以看到,對于天空和蘆葦灌木這樣的背景查詢點,關注區(qū)域范圍廣泛,而對于熊眼和鳥腿這樣的前景點,關注區(qū)域局部集中。

責任編輯:未麗燕 來源: AI公園
相關推薦

2018-08-26 22:25:36

自注意力機制神經網絡算法

2017-07-07 15:46:38

循環(huán)神經網絡視覺注意力模擬

2021-05-21 09:29:57

計算機互聯(lián)網技術

2017-05-05 08:57:06

卷積神經網絡機制

2017-05-03 08:52:13

卷積神經網絡神經網絡非線性激活函數(shù)

2024-10-31 10:00:39

注意力機制核心組件

2024-06-28 08:04:43

語言模型應用

2024-09-19 10:07:41

2022-12-02 15:26:27

模型編碼

2017-05-04 18:30:34

大數(shù)據(jù)卷積神經網絡

2022-04-07 09:01:52

神經網絡人工智能

2021-07-22 10:12:00

神經網絡數(shù)據(jù)圖形

2022-10-11 23:35:28

神經網絡VGGNetAlexNet

2020-07-23 17:40:03

神經網絡深度學習參數(shù)共享

2017-04-25 15:12:45

神經網絡SSD檢測

2019-01-05 08:40:17

VGG神經網絡

2019-10-25 16:18:34

機器學習人工智能計算機

2018-04-08 11:20:43

深度學習

2021-06-22 15:43:10

達摩院AI氣象

2024-07-16 14:15:09

點贊
收藏

51CTO技術棧公眾號