自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

掌握可視化卷積神經(jīng)網(wǎng)絡(luò)模型,帶你暢游圖像識別技術(shù)領(lǐng)域

人工智能 深度學(xué)習(xí)
在走進深度學(xué)習(xí)的過程中,最吸引作者的是一些用于給對象分類的模型。最新的科研結(jié)果表示,這類模型已經(jīng)可以在實時視頻中對多個對象進行檢測。

  

在走進深度學(xué)習(xí)的過程中,最吸引作者的是一些用于給對象分類的模型。***的科研結(jié)果表示,這類模型已經(jīng)可以在實時視頻中對多個對象進行檢測。而這就要歸功于計算機視覺領(lǐng)域***的技術(shù)革新。

眾所周知,在過去的幾年里,卷積神經(jīng)網(wǎng)絡(luò)(CNN或ConvNet)在深度學(xué)習(xí)領(lǐng)域取得了許多重大突破,但對于大多數(shù)人而言,這個描述是相當不直觀的。因此,要了解模型取得了怎樣大的突破,我們應(yīng)該先了解卷積神經(jīng)網(wǎng)絡(luò)是怎樣工作的。

卷積神經(jīng)網(wǎng)絡(luò)可以做些什么?

卷積神經(jīng)網(wǎng)絡(luò)用于在圖像中尋找特征。在CNN的前幾層中,神經(jīng)網(wǎng)絡(luò)可以進行簡單的"線條"和"角"的識別。我們也可以通過神經(jīng)網(wǎng)絡(luò)向下傳遞進而識別更復(fù)雜的特征。這個屬性使得CNN能夠很好地識別圖像中的對象。

卷積神經(jīng)網(wǎng)絡(luò)

CNN是一個包含各種層的神經(jīng)網(wǎng)絡(luò),其中一些層是卷積層、池化層、激活函數(shù)。

卷積層是如何工作的?

要了解CNN如何工作,你需要了解卷積。卷積涉及瀏覽圖像和應(yīng)用濾波器等具體內(nèi)容。

  

上圖是一個5x5的矩陣?,F(xiàn)在,你另外選取一個3x3矩陣,然后移動到圖像上,將3x3矩陣與被覆蓋的圖像部分相乘以生成單個值。緊接著,3x3矩陣向右和向下移動以"覆蓋"整個圖像。***,我們將獲得如上所示的內(nèi)容。

卷積層的目標是過濾。濾波器是由矢量的權(quán)重堆疊乘以卷積輸出的值來表示的。當訓(xùn)練圖像時,這些權(quán)重會發(fā)生變化,也就是說當進行圖像評估時,它會通過它捕捉到的一些特征來預(yù)測出圖像的內(nèi)容。

 

 

池化層

卷積層之后的層主要是CNN架構(gòu)中的池化層。它將輸入的圖像分割為一組不重疊的矩形,并且對于每個子區(qū)域都輸出一個值。 

 

 

兩個主要的池化層是***池和平均池。

***池 - 輸出子區(qū)域的***值。

平均池 - 輸出子區(qū)域的平均值。

池化層用于減少空間維度而不是深度。

減少空間維度的主要優(yōu)點是:

  • 通過減少空間信息,可以優(yōu)化計算性能。
  • 通過減少空間信息意味著你可以使用較少的參數(shù)來訓(xùn)練模型,從而減少過度擬合的可能性。
  • 獲得一些固定的值。

激活函數(shù)

激活函數(shù)的工作方式與其他神經(jīng)網(wǎng)絡(luò)完全相同,該函數(shù)的主要左右是將值壓縮到一個特定的范圍內(nèi)。一些常用的激活函數(shù)是:

 

 

最常用的激活函數(shù)是ReLu激活函數(shù)。它需要輸入'x'并判斷'x'是否為正,如果不為正則返回0。使用ReLu函數(shù)的原因是因為它的執(zhí)行成本很低。 

 

 

上圖是卷積層的一般表示。我們通過池化層進行了卷積和ReLu函數(shù)。這些層彼此堆疊。

雖然定義和訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN)比以往任何時候都容易,但大多數(shù)人還是會陷入誤區(qū)。

為此目的,我們使用可視化來理解CNN模型中的各種層。

使用Keras實現(xiàn)可視化

在這部分我們將嘗試使用Keras實現(xiàn)可視化。我們將使用Keras可視化輸入,***限度地激活VGG16體系結(jié)構(gòu)的不同層中的濾波器,并對ImageNet進行訓(xùn)練。

首先,讓我們從在Keras中定義VGG16模型開始: 

 

 

請注意,我們只進入***一個卷積層。原因是添加完全連接的層會強制你使用模型的固定輸入大?。?24x224,原始ImageNet格式)。 通過保留卷積模塊,我們的模型可以適應(yīng)任意輸入大小。

該模型加載了一組預(yù)先在ImageNet上訓(xùn)練過的權(quán)重。

現(xiàn)在讓我們定義一個損失函數(shù),它將促進特定層(layer_name)中的特定濾波器(filter_index)的激活。我們通過Keras后端函數(shù)執(zhí)行此操作,該函數(shù)支持我們的代碼在TensorFlow和Theano之上運行。 

 

 

一切都很簡單。這里唯一的技巧是規(guī)范輸入圖像的像素梯度,以確保梯度上升足夠平滑。

現(xiàn)在我們可以使用我們定義的Keras函數(shù)在輸入空間中進行梯度上升: 

 

 

使用TensorFlow在CPU上執(zhí)行此操作需要幾秒鐘。

然后我們可以提取并顯示生成的輸入: 

 

 

結(jié)果: 

 

 

***層基本上只是編碼方向和顏色。然后將這些方向和濾波器組合成基本網(wǎng)格和斑點紋理。這些紋理逐漸組合成越來越復(fù)雜的圖案。

你可以將每層中的濾波器視為矢量的基礎(chǔ),它通常是完整的,可用于以緊湊的方式將輸入層進行編碼。當濾波器開始整合來自越來越大的空間范圍的信息時,濾波器會變得更加復(fù)雜。

以下是從不同層生成的要素圖的圖片: 

 

 

第1層主要生成水平、垂直和對角線。主要用于檢測圖像中的邊緣。 第2層將嘗試提供更多的信息。它主要檢測角落。第3層我們開始可以檢測到一些復(fù)雜的圖案,如眼睛、臉等。我們可以假設(shè)這個特征圖是從訓(xùn)練過的人臉檢測模型中獲得的。在第4層,它可以在面部的更復(fù)雜部分(例如眼睛)。 

 

 

在第5層中,你可以使用要素圖生成人的具體面孔、汽車輪胎、動物的面孔等。此要素圖包含有關(guān)圖像中的大多數(shù)信息。

結(jié)論

一般而言,CNN和其他圖像識別模型并沒有太大區(qū)別。我們可以通過閱讀相關(guān)書籍加深對這方面的了解。

責任編輯:龐桂玉 來源: 今日頭條
相關(guān)推薦

2022-10-11 23:35:28

神經(jīng)網(wǎng)絡(luò)VGGNetAlexNet

2017-09-08 13:30:32

深度學(xué)習(xí)圖像識別卷積神經(jīng)網(wǎng)絡(luò)

2022-10-19 07:42:41

圖像識別神經(jīng)網(wǎng)絡(luò)

2018-04-03 14:42:46

Python神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2019-06-04 05:52:20

神經(jīng)網(wǎng)絡(luò)可視化CNN)

2019-01-05 08:40:17

VGG神經(jīng)網(wǎng)絡(luò)

2021-06-29 09:53:06

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2022-06-16 10:29:33

神經(jīng)網(wǎng)絡(luò)圖像分類算法

2018-03-13 15:01:12

神經(jīng)網(wǎng)絡(luò)卷積網(wǎng)絡(luò)圖像

2017-04-26 09:30:53

卷積神經(jīng)網(wǎng)絡(luò)實戰(zhàn)

2018-09-09 23:58:25

可視化神經(jīng)網(wǎng)絡(luò)模型

2017-09-06 11:10:58

大數(shù)據(jù)數(shù)據(jù)可視化神經(jīng)網(wǎng)絡(luò)

2017-04-17 10:25:29

神經(jīng)網(wǎng)絡(luò)可視化ActiVis

2017-05-04 18:30:34

大數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)

2022-04-07 09:01:52

神經(jīng)網(wǎng)絡(luò)人工智能

2018-02-05 08:58:36

Python神經(jīng)網(wǎng)絡(luò)識別圖像

2017-10-11 23:07:00

神經(jīng)網(wǎng)絡(luò)激活函數(shù)可視化

2022-11-01 16:02:31

架構(gòu)神經(jīng)網(wǎng)絡(luò)模型

2022-10-20 09:33:35

2021-03-08 09:25:48

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形
點贊
收藏

51CTO技術(shù)棧公眾號