30行JavaScript代碼,教你分分鐘創(chuàng)建神經(jīng)網(wǎng)絡(luò)
自己搭建神經(jīng)網(wǎng)絡(luò)太復(fù)雜?
別怕!
今天我們將手把手教你如何用30行代碼輕松創(chuàng)建一個(gè)神經(jīng)網(wǎng)絡(luò)
。在本篇文章中,你將學(xué)到:
如何使用Synaptic.js(https://synaptic.juancazala.com/#/)創(chuàng)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)。
利用這款工具,我們可以在瀏覽器中用Node.js進(jìn)行深度學(xué)習(xí)。
今天我們要講的例子是一個(gè)非常簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),我們將用它來(lái)學(xué)習(xí)邏輯異或方程(XOR equation)。
同時(shí),我也在Scrimba上創(chuàng)建了一個(gè)交互式屏幕錄像。你也可以通過(guò)觀看視頻來(lái)學(xué)習(xí)本教程。(https://scrimba.com/casts/cast-1980)
在開(kāi)始編程之前,讓我們先快速瀏覽神經(jīng)網(wǎng)絡(luò)的一些基本概念。
神經(jīng)元和突觸
神經(jīng)網(wǎng)絡(luò)的***個(gè)模塊,是神經(jīng)元。
神經(jīng)元類似一個(gè)函數(shù),你輸入一些值,它就會(huì)輸出返回值。
神經(jīng)元有各種不同的類型。我們的神經(jīng)網(wǎng)絡(luò)將用到sigmoid神經(jīng)元(https://en.wikipedia.org/wiki/Sigmoid_function),將任何輸入的給定值,壓縮到0到1之間。
下圖中的圓圈就代表一個(gè)sigmoid神經(jīng)元。它的輸入值是5,輸出值是1。箭頭則代表的是神經(jīng)元的突觸,用來(lái)連接神經(jīng)網(wǎng)絡(luò)中其它層的神經(jīng)元。
為什么會(huì)有一個(gè)紅色的數(shù)字5呢?它是連接到神經(jīng)元的三個(gè)突觸(左邊3個(gè)箭頭)的值之和。
在最左邊,我們看到有兩個(gè)值與所謂的偏差值進(jìn)行了加法運(yùn)算。數(shù)值1和0是綠色的,而偏差值-2是棕色的。
首先,兩個(gè)輸入值與他們的權(quán)重分別相乘,權(quán)重就是藍(lán)色數(shù)字7和3。
然后,我們把他們和偏差值加起來(lái),所得的結(jié)果是5,對(duì)應(yīng)紅色數(shù)字。這個(gè)紅色數(shù)字就是我們?nèi)斯ど窠?jīng)元的輸入值。
由于我們的神經(jīng)元是sigmoid神經(jīng)元,它會(huì)將任何值壓縮到0到1的區(qū)間范圍內(nèi),所以輸出值被壓縮到1。
如果將這些神經(jīng)元的網(wǎng)絡(luò)連接起來(lái),就形成了一個(gè)神經(jīng)網(wǎng)絡(luò)。通過(guò)神經(jīng)元間的突觸連接,從輸入到輸出進(jìn)行正向傳播。如下圖所示:
神經(jīng)網(wǎng)絡(luò)的目標(biāo)是訓(xùn)練其泛化能力,例如識(shí)別手寫的數(shù)字或者垃圾郵件。做到好的泛化重要的是通過(guò)神經(jīng)網(wǎng)絡(luò)找到合適的權(quán)重和偏差值。如上述例子中的藍(lán)色和棕色數(shù)字。
當(dāng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),我們只需要加載大量示例數(shù)據(jù),如手寫的數(shù)字,然后讓神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè)正確的數(shù)字。
在每次預(yù)測(cè)后,你需要計(jì)算預(yù)測(cè)的偏差程度,然后調(diào)整權(quán)重和偏差值使得神經(jīng)網(wǎng)絡(luò)在下一次運(yùn)算中可以預(yù)測(cè)的更加準(zhǔn)確。這種學(xué)習(xí)過(guò)程被稱為反向傳播。如此重復(fù)上千次,你的神經(jīng)網(wǎng)絡(luò)很快會(huì)精于泛化。
本教程不包括反向傳播的工作原理介紹,但是我找到了3個(gè)好的教程幫助大家理解:
- 分步介紹反向傳播案例(https://mattmazur.com/2015/03/17/a-step-by-step-backpropagation-example/) – 作者:Matt Mazur
- 神經(jīng)網(wǎng)路駭客指南(http://karpathy.github.io/neuralnets/) – 作者:Andrej Karpathy
- 神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)(http://neuralnetworksanddeeplearning.com/chap1.html) – 作者:Michael Nielsen
用代碼搭建神經(jīng)網(wǎng)絡(luò)
現(xiàn)在,你應(yīng)該已經(jīng)對(duì)神經(jīng)網(wǎng)絡(luò)有了基礎(chǔ)概念,那就讓我們進(jìn)入代碼部分吧。
1.創(chuàng)建神經(jīng)網(wǎng)絡(luò)層
在synaptic中我們使用new layer()函數(shù)來(lái)創(chuàng)建。函數(shù)中傳遞的數(shù)字表示的是每一層會(huì)有多少個(gè)神經(jīng)元。
接下來(lái)我們將這些層進(jìn)行連接并實(shí)例化一個(gè)神經(jīng)網(wǎng)絡(luò),代碼如下,
這是一個(gè)2-3-1結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),可視化表示如下:
2.訓(xùn)練神經(jīng)網(wǎng)絡(luò)
我們共進(jìn)行了20,000次的訓(xùn)練,每一次都進(jìn)行四次正向傳播和反向傳播運(yùn)算,分別傳遞四個(gè)可能的輸入到神經(jīng)網(wǎng)絡(luò):[0,0] [0,1] [1,0] [1,1] 。
我們從myNetwork.activate([0,0])激活函數(shù)開(kāi)始,[0,0]是神經(jīng)網(wǎng)絡(luò)的輸入值,這個(gè)過(guò)程是正向傳播,也被稱為激活網(wǎng)絡(luò)。在每一次正向傳播后我們需要做一次反向傳播,從而更新神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏差值。
反向傳播通過(guò)下面這行代碼實(shí)現(xiàn)
- myNetwork.propagate(learningRate, [0])
learningRate是一個(gè)常數(shù),用來(lái)告訴神經(jīng)網(wǎng)絡(luò)每次應(yīng)該對(duì)權(quán)重值進(jìn)行多大程度的調(diào)整。第二個(gè)參數(shù)0表示的是當(dāng)輸入為[0,0]時(shí),正確的輸出參數(shù)是0.
然后,神經(jīng)網(wǎng)絡(luò)將預(yù)測(cè)值和真實(shí)值進(jìn)行對(duì)比,來(lái)判斷預(yù)測(cè)是否正確。
它將比較的結(jié)果作為調(diào)整權(quán)重和偏差值的基礎(chǔ),以便下次的預(yù)測(cè)可以更加準(zhǔn)確。
在執(zhí)行這個(gè)過(guò)程20,000次后,我們可以通過(guò)傳遞四個(gè)可能的輸入到激活網(wǎng)絡(luò),從而判斷目前神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)情況:
如果我們將這些值四舍五入到最近的整數(shù),就將得到異或方程的正確結(jié)果。萬(wàn)歲!
以上就是教程的全部?jī)?nèi)容了。
雖然我們只了解了神經(jīng)網(wǎng)絡(luò)的皮毛,但這已經(jīng)足夠支持你開(kāi)始使用Synaptic,并繼續(xù)學(xué)習(xí)。另外,Synaptic的wiki中有很多好的教程,你可以點(diǎn)擊以下鏈接瀏覽(https://github.com/cazala/synaptic/wiki)。