自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

人工智能 深度學(xué)習(xí)
本文剖析由激活函數(shù)組成的神經(jīng)網(wǎng)絡(luò),以及神經(jīng)網(wǎng)絡(luò)的生物類似物,并簡要介紹幾種常用的激活函數(shù)。

本文轉(zhuǎn)載自公眾號“讀芯術(shù)”(ID:AI_Discovery)。

激活函數(shù)是人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)因素,其位于神經(jīng)元之上,并管理著神經(jīng)元行為,比如是否需要處理某個(gè)輸入數(shù)據(jù),若需要,又以何種程度處理等等。從技術(shù)上來講,某個(gè)節(jié)點(diǎn)的激活函數(shù)將其在神經(jīng)網(wǎng)絡(luò)中前一個(gè)節(jié)點(diǎn)的數(shù)據(jù)輸入,并輸出一個(gè)確定值,這個(gè)值繼而指導(dǎo)后續(xù)節(jié)點(diǎn)如何發(fā)動(dòng)來響應(yīng)特定輸入信號。

[[374794]]

本文剖析由激活函數(shù)組成的神經(jīng)網(wǎng)絡(luò),以及神經(jīng)網(wǎng)絡(luò)的生物類似物,并簡要介紹幾種常用的激活函數(shù)。

神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

作為一名數(shù)據(jù)科學(xué)愛好者,你一定見過上面的這張圖片或者與之相似的圖片。這張圖片是對雙層神經(jīng)網(wǎng)絡(luò)工作流程的經(jīng)典描述。如圖,該網(wǎng)絡(luò)對貓或狗的圖片進(jìn)行分類,其中有兩個(gè)隱藏層,每一層包含一行神經(jīng)元,一行有16個(gè)。我們把圖片局部放大,放大第二層的第一個(gè)神經(jīng)元。

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

局部放大之后大致如此。注意,此神經(jīng)元接受前16個(gè)神經(jīng)元傳遞的信號。神經(jīng)元將連接權(quán)值與信號相乘,并在乘積上加上一個(gè)偏差項(xiàng),最后得到計(jì)算結(jié)果,并將其命名為v。此v可視為這個(gè)神經(jīng)元對所輸入圖像的認(rèn)知。

在識別到輸入信號之后,神經(jīng)元可產(chǎn)生相應(yīng)的反應(yīng),在此激活函數(shù)發(fā)揮其作用。激活函數(shù)被命名為f(),作為由識別到反應(yīng)的映射,產(chǎn)生值a,并將其傳遞到下一層神經(jīng)元,作為前一層特定神經(jīng)元對信號做出反應(yīng)的標(biāo)志。

生物學(xué)類比

假如將手放在逐漸升溫的鋼鍋上,一旦溫度超過某個(gè)閾值,你就會(huì)急切地要拿開手。把手移開時(shí)并不需要知道鍋的確切溫度,而是根據(jù)實(shí)際參數(shù)做出選擇。這是神經(jīng)元在放電,當(dāng)神經(jīng)元放電時(shí),指令傳遞到外圍(本例中的手)。

這就是激活函數(shù)的來源或者至少與之相似。在這里實(shí)際數(shù)據(jù)是冗余的,神經(jīng)元只需判斷其是否超過閾值。

就目前所知,生物神經(jīng)元和人工神經(jīng)元之間的一個(gè)顯著差異是,前者要么被激活,要么不被激活,只有兩種結(jié)果,而后者的激活程度是在一定范圍內(nèi)。

激活函數(shù)的種類

激活函數(shù)多種多樣。讓我們按照函數(shù)所解決問題的順序,大致學(xué)習(xí)其中的幾種:

問題1:學(xué)習(xí)問題

早期,神經(jīng)網(wǎng)絡(luò)的目標(biāo)是學(xué)習(xí)自身,線性函數(shù)的處理效果相當(dāng)好。之所以稱為線性函數(shù),是因?yàn)関 = wa + b的近似值與直線方程y = mx + c極為相似。

問題2:非線性問題

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

雖然線性函數(shù)非常接近于右側(cè)數(shù)據(jù),但是左側(cè)數(shù)據(jù)卻效果不佳。由于非線性分布數(shù)據(jù)集主導(dǎo)著機(jī)器學(xué)習(xí)領(lǐng)域,而且激活函數(shù)是將非線性注入到網(wǎng)絡(luò)中的唯一適用方法,所以函數(shù)就不能是線性的。能夠解決這個(gè)問題的常見函數(shù)有:

Sigmoid函數(shù):在函數(shù)內(nèi)輸入一個(gè)值,輸出值的范圍為(0,1)。輸入的值越小,輸出值越接近于0,輸入的值越大,輸出值則越接近于1,但都不會(huì)達(dá)到任一個(gè)極限值。

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

tanh函數(shù):也稱雙曲正切函數(shù)。tanh函數(shù)與sigmoid函數(shù)非常相似,只是輸出值范圍為(-1,1)。右側(cè)為sigmoid函數(shù)圖像,左側(cè)為tanh函數(shù)圖像。

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

問題3:梯度消失問題

再次觀察圖表,sigmoid函數(shù)曲線越接近于極限值越平緩,也就是說,當(dāng)輸入絕對值非常大的值的時(shí)候,輸出值的變化不明顯。這大大降低了學(xué)習(xí)率。這就是所謂的梯度消失問題,隨著進(jìn)程推進(jìn),梯度(比如,學(xué)習(xí))消失。ReLU函數(shù)解決了這個(gè)問題,實(shí)際上它也是現(xiàn)代神經(jīng)網(wǎng)絡(luò)的默認(rèn)激活函數(shù)。

ReLU函數(shù):ReLU函數(shù)是線性整流函數(shù)(Rectified Linear Unit)的簡稱,它可能是最有趣、最反直覺的函數(shù)。它幾乎就是一個(gè)直線函數(shù),只不過在原點(diǎn)處有個(gè)拐角,所以它是一個(gè)分段函數(shù)。

 

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

 

 

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

 

人們經(jīng)常會(huì)問,一個(gè)近似線性的函數(shù)是如何解決這個(gè)問題的。從圖中可以明顯看出,它幾乎可以完全避免梯度消失問題。單個(gè)ReLU函數(shù)會(huì)顯得比較單調(diào)乏味,但是多個(gè)在一些就會(huì)變得無懈可擊。

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

線性函數(shù)完全無法近似,而tanh函數(shù)試圖畫出平滑的類圓曲線,所以最終出現(xiàn)了六角形邊狀的ReLU函數(shù)。你可能會(huì)認(rèn)為,這是兩個(gè)直線的一端接在一起,如同鐘表指針那樣。

現(xiàn)在,假設(shè)有一百萬條這樣的直線,那么你可以用這種排列方法模擬任何非線性形狀。ReLU的精妙之處就在于,它既近似線性,多個(gè)組在一起時(shí)又能通過改變拐角的角度模擬出幾乎所有形狀。

這引出了最后一個(gè)要解決的問題。

問題4:概率和問題

無論隱藏層的工作內(nèi)容如何,最終的目標(biāo)都是生成某種預(yù)測,而在這里,就是輸出一個(gè)概率向量,其中包含輸入對象為已標(biāo)記對象概率表。比如,第一張圖片中神經(jīng)網(wǎng)絡(luò)的結(jié)果可能是:

  1. [dog, cow, cat, goat, lamb] = [0. 2, 0.05, 0.7,0.03, 0.01] 

結(jié)果最有可能是貓,因?yàn)槭秦埖母怕蕿?.7,概率最高。

為了將全連接層的最終輸出值轉(zhuǎn)換為正規(guī)化概率向量,需要一個(gè)函數(shù)接受一個(gè)向量,然后輸出另一個(gè)向量,而且輸出向量所有元素的和為1。畢竟,這才是概率向量。

Sigmoid函數(shù)非常接近于概率函數(shù),因?yàn)樗妮敵鲋捣秶鸀?到1,但是不滿足和等于1的情況。Softmax函數(shù)可以滿足這一點(diǎn)。

Softmax函數(shù):函數(shù)接受一個(gè)向量,并使用下列函數(shù)計(jì)算輸出向量中每個(gè)元素的相應(yīng)概率。

人工神經(jīng)網(wǎng)絡(luò)的驅(qū)動(dòng)者:激活函數(shù)是什么?

函數(shù)中分母為所有可能分子的和,避免輸出值超過1。

關(guān)于激活函數(shù),你了解了嘛?

 

責(zé)任編輯:趙寧寧 來源: 今日頭條
相關(guān)推薦

2022-09-26 00:00:00

神經(jīng)網(wǎng)絡(luò)激活函數(shù)sigmoid

2022-03-02 14:53:34

人工智能神經(jīng)網(wǎng)絡(luò)

2023-04-18 15:15:06

神經(jīng)網(wǎng)絡(luò)激活函數(shù)開發(fā)

2024-07-24 08:04:24

神經(jīng)網(wǎng)絡(luò)激活函數(shù)

2024-11-07 08:26:31

神經(jīng)網(wǎng)絡(luò)激活函數(shù)信號

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2020-12-21 08:00:00

人工智能深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2023-06-18 23:00:39

神經(jīng)網(wǎng)絡(luò)損失函數(shù)隨機(jī)變量

2020-07-22 18:11:07

神經(jīng)網(wǎng)絡(luò)函數(shù)代碼

2020-08-20 07:00:00

深度學(xué)習(xí)人工智能技術(shù)

2017-10-11 23:07:00

神經(jīng)網(wǎng)絡(luò)激活函數(shù)可視化

2021-09-24 12:00:40

人工智能AI神經(jīng)網(wǎng)絡(luò)

2019-10-08 15:39:54

人工智能損失函數(shù)網(wǎng)絡(luò)

2021-08-11 07:02:04

Python激活函數(shù)

2020-05-29 17:21:33

神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)函數(shù)

2022-11-30 07:12:06

2017-04-06 18:34:16

人工智能

2021-08-25 13:13:58

神經(jīng)網(wǎng)絡(luò)AI算法

2018-11-28 15:39:21

人工神經(jīng)嵌入式SDK

2019-08-29 10:10:52

神經(jīng)網(wǎng)絡(luò)激活函數(shù)人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號