面向深度學(xué)習(xí)的五大神經(jīng)網(wǎng)絡(luò)模型及其應(yīng)用
譯文【51CTO.com快譯】神經(jīng)網(wǎng)絡(luò)是識(shí)別一組數(shù)據(jù)中潛在關(guān)系的一系列算法。這些算法很大程度上有賴于人腦的運(yùn)作方式。神經(jīng)網(wǎng)絡(luò)可以適應(yīng)不斷變化的輸入,生成最佳結(jié)果,無(wú)需重新設(shè)計(jì)輸出標(biāo)準(zhǔn)。在某種程度上,這些神經(jīng)網(wǎng)絡(luò)類似生物神經(jīng)元的系統(tǒng)。
深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的重要組成部分,深度學(xué)習(xí)算法基于神經(jīng)網(wǎng)絡(luò)。有幾種功能不同的神經(jīng)網(wǎng)絡(luò)架構(gòu),最適合特定的應(yīng)用場(chǎng)景。本文介紹一些最知名的架構(gòu),尤其是深度學(xué)習(xí)方面的架構(gòu)。
多層感知器
多層感知器(MLP)是一類前饋人工神經(jīng)網(wǎng)絡(luò)。感知器這個(gè)術(shù)語(yǔ)具體是指單個(gè)神經(jīng)元模型,它是大型神經(jīng)網(wǎng)絡(luò)的前體。
MLP包括節(jié)點(diǎn)的三個(gè)主要層:輸入層、隱藏層和輸出層。在隱藏層和輸出層中,每個(gè)節(jié)點(diǎn)都被視為使用非線性激活函數(shù)的神經(jīng)元。MLP使用一種稱為反向傳播的監(jiān)督式學(xué)習(xí)技術(shù)進(jìn)行訓(xùn)練。初始化神經(jīng)網(wǎng)絡(luò)時(shí),為每個(gè)神經(jīng)元設(shè)置權(quán)重。反向傳播有助于調(diào)整神經(jīng)元權(quán)重,以獲得更接近預(yù)期的輸出。
對(duì)于涉及表格數(shù)據(jù)集、分類預(yù)測(cè)問題和回歸預(yù)測(cè)問題的項(xiàng)目,MLP最理想。
卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型處理具有網(wǎng)格圖案(比如圖像)的數(shù)據(jù)。它旨在自動(dòng)學(xué)習(xí)特征的空間層次結(jié)構(gòu)。CNN通常包括三種類型的層:卷積層、池化層和完全連接的層。
卷積層和池化層執(zhí)行特征提取任務(wù),這些提取的特征由完全連接的層映射到最終輸出中。 CNN最適合圖像處理。
圖像識(shí)別、圖像分類、對(duì)象檢測(cè)和人臉識(shí)別是CNN的一些應(yīng)用場(chǎng)景。
遞歸神經(jīng)網(wǎng)絡(luò)
在遞歸神經(jīng)網(wǎng)絡(luò)(RNN)中,前一步的輸出將作為輸入被反饋回到當(dāng)前步驟。RNN中的隱藏層實(shí)現(xiàn)這種反饋系統(tǒng)。該隱藏狀態(tài)可以存儲(chǔ)有關(guān)序列中之前步驟的一些信息。
RNN中的“內(nèi)存”可幫助模型記住已計(jì)算的所有信息。反過來,它使用這些同樣的參數(shù),以便每個(gè)輸入生成輸出,因而降低了參數(shù)的復(fù)雜性。
RNN是使用最廣泛的神經(jīng)網(wǎng)絡(luò)類型之一,主要是由于RNN具有更強(qiáng)的學(xué)習(xí)能力,而且能夠執(zhí)行諸如學(xué)習(xí)手寫或語(yǔ)言識(shí)別之類的復(fù)雜任務(wù)。RNN適用的其他一些領(lǐng)域包括預(yù)測(cè)問題、機(jī)器翻譯、視頻標(biāo)記、文本摘要,甚至音樂創(chuàng)作。
深度信念網(wǎng)絡(luò)
深度信念網(wǎng)絡(luò)(DBN)使用概率和無(wú)監(jiān)督學(xué)習(xí)來生成輸出。DBN由二進(jìn)制潛在變量、無(wú)向?qū)雍陀邢驅(qū)咏M成。DBN有別于其他模型,原因是每一層都按順序進(jìn)行調(diào)節(jié),每一層都學(xué)習(xí)整個(gè)輸入。
在DBN中,每個(gè)子網(wǎng)的隱藏層都是下一個(gè)的可見層。這種組合可以實(shí)現(xiàn)快速的逐層無(wú)監(jiān)督訓(xùn)練過程:對(duì)比差異應(yīng)用于每個(gè)子網(wǎng),從最低可見層開始。貪婪的學(xué)習(xí)算法用于訓(xùn)練DBN。學(xué)習(xí)系統(tǒng)每次取一層。因此,每一層收到不同版本的數(shù)據(jù),每一層都使用前一層的輸出作為其輸入。
DBN主要應(yīng)用于圖像識(shí)別、視頻識(shí)別和運(yùn)動(dòng)捕獲數(shù)據(jù)。
受限玻爾茲曼機(jī)
玻爾茲曼機(jī)(RBM)是一種生成式非確定性(隨機(jī))神經(jīng)網(wǎng)絡(luò),可學(xué)習(xí)其輸入集的概率分布。RBM是組成深度信念網(wǎng)絡(luò)構(gòu)建模塊的淺度兩層神經(jīng)網(wǎng)絡(luò)。RBM中的第一層名為可見層或輸入層,第二層名為隱藏層。它由名為節(jié)點(diǎn)的類似神經(jīng)元的單元組成;節(jié)點(diǎn)跨層相互連接,但不在同一層內(nèi)。
RBM通常用于降維、推薦系統(tǒng)和主題建模等應(yīng)用場(chǎng)景。不過近年來,生成式對(duì)抗網(wǎng)絡(luò)(GAN)在漸漸取代RBM。
原文標(biāo)題:Top 5 Neural Network Models For Deep Learning & Their Applications,作者:Shraddha Goled
【51CTO譯稿,合作站點(diǎn)轉(zhuǎn)載請(qǐng)注明原文譯者和出處為51CTO.com】