自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

LSTM、GRU與神經(jīng)圖靈機(jī):詳解深度學(xué)習(xí)最熱門的循環(huán)神經(jīng)網(wǎng)絡(luò)

移動開發(fā) 深度學(xué)習(xí)
循環(huán)神經(jīng)網(wǎng)絡(luò)是當(dāng)前深度學(xué)習(xí)熱潮中最重要和最核心的技術(shù)之一。近日,Jason Brownlee 通過一篇長文對循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行了系統(tǒng)的介紹。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN/recurrent neural network)是一類人工神經(jīng)網(wǎng)絡(luò),其可以通過為網(wǎng)絡(luò)添加額外的權(quán)重來在網(wǎng)絡(luò)圖(network graph)中創(chuàng)建循環(huán),以便維持一個內(nèi)部狀態(tài)。

為神經(jīng)網(wǎng)絡(luò)添加狀態(tài)的好處是它們將能在序列預(yù)測問題中明確地學(xué)習(xí)和利用背景信息(context),這類問題包括帶有順序或時間組件的問題。

在這篇文章中,你將踏上了解用于深度學(xué)習(xí)的循環(huán)神經(jīng)網(wǎng)絡(luò)的旅程。

在讀完這篇文章后,你將了解:

  • 用于深度學(xué)習(xí)的***循環(huán)神經(jīng)網(wǎng)絡(luò)的工作方式,其中包括 LSTM、GRU 和 NTM。
  • *** RNN 與人工神經(jīng)網(wǎng)絡(luò)中更廣泛的循環(huán)(recurrence)研究的相關(guān)性。
  • RNN 研究如何在一系列高難度問題上實(shí)現(xiàn)了當(dāng)前***的表現(xiàn)。

注意,我們并不會覆蓋每一種可能的循環(huán)神經(jīng)網(wǎng)絡(luò),而是會重點(diǎn)關(guān)注幾種用于深度學(xué)習(xí)的循環(huán)神經(jīng)網(wǎng)絡(luò)(LSTM、GRU 和 NTM)以及用于理解它們的背景。

那就讓我們開始吧!

概述

我們首先會設(shè)置循環(huán)神經(jīng)網(wǎng)絡(luò)領(lǐng)域的場景;然后,我們將深入了解用于深度學(xué)習(xí)的 LSTM、GRU 和 NTM;之后我們會花點(diǎn)時間介紹一些與用于深度學(xué)習(xí)的 RNN 相關(guān)的高級主題。

  • 循環(huán)神經(jīng)網(wǎng)絡(luò)
  • 完全循環(huán)網(wǎng)絡(luò)(Fully Recurrent Networks)
  • 遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Networks)
  • 神經(jīng)歷史壓縮器(Neural History Compressor)
  • 長短期記憶網(wǎng)絡(luò)(LSTM)
  • 門控循環(huán)單元(GRU)神經(jīng)網(wǎng)絡(luò)
  • 神經(jīng)圖靈機(jī)(NTM)

循環(huán)神經(jīng)網(wǎng)絡(luò)

首先讓我們設(shè)置場景。

人們普遍認(rèn)為循環(huán)(recurrence)是給網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)提供一個記憶(memory)。

一種更好的看法是訓(xùn)練集包含一種樣本——其帶有一組用于循環(huán)訓(xùn)練樣本的輸入。這是「傳統(tǒng)的慣例」,比如傳統(tǒng)的多層感知器

X(i) -> y(i)

但是該訓(xùn)練樣本得到了來自之前的樣本的一組輸入的補(bǔ)充。這是「非傳統(tǒng)的」,比如循環(huán)神經(jīng)網(wǎng)絡(luò)

[X(i-1), X(i)] -> y(i)

和所有的前饋網(wǎng)絡(luò)范式一樣,問題的關(guān)鍵是如何將輸入層連接到輸出層(包括反饋激活),然后訓(xùn)練該結(jié)構(gòu)使其收斂。

現(xiàn)在,讓我們來看看幾種不同的循環(huán)神經(jīng)網(wǎng)絡(luò),首先從非常簡單的概念開始

完全循環(huán)網(wǎng)絡(luò)

多層感知器的分類結(jié)構(gòu)得到了保留,但該架構(gòu)中的每個元素與其它每個元素之間都有一個加權(quán)的連接,并且還有一個與其自身的反饋連接。

并不是所有這些連接都會被訓(xùn)練,而且其誤差導(dǎo)數(shù)的極端非線性意味著傳統(tǒng)的反向傳播無法起效,因此只能使用通過時間的反向傳播(Backpropagation Through Time)方法或隨機(jī)梯度下降(SGD)。

  • 另外,可參閱 Bill Willson 的張量積網(wǎng)絡(luò)(Tensor Product Networks):http://www.cse.unsw.edu.au/~billw/cs9444/tensor-stuff/tensor-intro-04.html

遞歸神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)是遞歸網(wǎng)絡(luò)的線性架構(gòu)變體。

遞歸(recursion)可以促進(jìn)分層特征空間中的分支,而且其所得到的網(wǎng)絡(luò)架構(gòu)可以在訓(xùn)練進(jìn)行中模擬它。

其訓(xùn)練是通過子梯度方法(sub-gradient methods)使用隨機(jī)梯度實(shí)現(xiàn)的。

R. Socher 等人 2011 年的論文《Parsing Natural Scenes and Natural Language with Recursive Neural Networks》中使用 R 語言對其進(jìn)行了詳細(xì)的描述,參閱:http://machinelearning.wustl.edu/mlpapers/paper_files/ICML2011Socher_125.pdf

神經(jīng)歷史壓縮器

在 1991 年,Schmidhuber 首先報告了一種非常深度的學(xué)習(xí)器,其可以通過一種 RNN 層次的無監(jiān)督預(yù)訓(xùn)練來在數(shù)百個神經(jīng)層上執(zhí)行功勞分配(credit assignment)。

每個 RNN 都是無監(jiān)督訓(xùn)練的,可以預(yù)測下一個輸入。然后只有產(chǎn)生錯誤的輸入會被前饋,將新信息傳送到該層次結(jié)構(gòu)中的下一個 RNN,然后以更慢的、自組織的時間尺度進(jìn)行處理。

事實(shí)表明不會有信息丟失,只是會有壓縮。該 RNN stack 是數(shù)據(jù)的一個「深度生成模型(deep generative model)。這些數(shù)據(jù)可以根據(jù)其壓縮形式重建。

  • 參閱 J. Schmidhuber 等人 2014 年的論文《Deep Learning in Neural Networks: An Overview》:http://www2.econ.iastate.edu/tesfatsi/DeepLearningInNeuralNetworksOverview.JSchmidhuber2015.pdf

當(dāng)誤差被反向傳播通過大型結(jié)構(gòu)時,非線性導(dǎo)數(shù)的極限(extremity)的計算會增長,會使功勞分配(credit assignment)困難甚至是不可能,使得反向傳播失敗。

長短期記憶網(wǎng)絡(luò)

使用傳統(tǒng)的通過時間的反向傳播(BPTT)或?qū)崟r循環(huán)學(xué)習(xí)(RTTL/Real Time Recurrent Learning),在時間中反向流動的誤差信號往往會爆炸(explode)或消失(vanish)

反向傳播誤差的時間演化指數(shù)式地依賴于權(quán)重的大小。權(quán)重爆炸可能會導(dǎo)致權(quán)重振蕩,而權(quán)重消失則可能導(dǎo)致學(xué)習(xí)彌合時間滯后并耗費(fèi)過多時間或根本不工作。

  • LSTM 是一種全新的循環(huán)網(wǎng)絡(luò)架構(gòu),可用一種合適的基于梯度的學(xué)習(xí)算法進(jìn)行訓(xùn)練。
  • LSTM 是為克服誤差反向流動問題(error back-flow problem)而設(shè)計的。它可以學(xué)習(xí)橋接超過 1000 步的時間間隔。
  • 在有噪聲的、不可壓縮的輸入序列存在,而沒有短時間滯后能力的損失時,這是真實(shí)的。

通過一種有效的基于梯度的算法,誤差反向流動問題可以克服,因?yàn)樵撍惴ㄗ尵W(wǎng)絡(luò)架構(gòu)可以強(qiáng)迫常量(因此不會有爆炸或消失)誤差流過特殊單元的內(nèi)部狀態(tài)。這些單元可以減少「輸入權(quán)重沖突(Input Weight Conflict)」和「輸出權(quán)重沖突(Output Weight Conflict)」的影響。

輸入權(quán)重沖突:如果輸入是非零的,則同樣的輸入權(quán)重必須被同時用于存儲特定的輸入并忽略其它輸入,那么這就將會經(jīng)常收到有沖突的權(quán)重更新信號。

這些信號將會試圖使該權(quán)重參與存儲輸入并保護(hù)該輸入。這種沖突會使學(xué)習(xí)變得困難,并且需要一個對背景更敏感的機(jī)制來通過輸入權(quán)重控制「寫入操作(write operations)」。

輸出權(quán)重沖突:只要一個單元的輸出是非零的,那么這個單元的輸出連接的權(quán)重就將吸引在序列處理過程中生成的有沖突的權(quán)重更新信號。

這些信號將試圖使正在輸出的權(quán)重參與進(jìn)來,獲取存在在處理單元中信息,并且在不同的時間保護(hù)后續(xù)的單元免受正被饋送的單元的輸出的干擾。

這些沖突并不特定于長期滯后(long-term lags),并且也可以同樣影響到短期滯后(short-term lags)。值得注意的是,隨著滯后的增長,存儲的信息必須被保護(hù)起來免受干擾,尤其是在學(xué)習(xí)的高級階段。

網(wǎng)絡(luò)架構(gòu):不同類型的單元都可能傳遞關(guān)于網(wǎng)絡(luò)當(dāng)前狀態(tài)的有用信息。比如說,一個輸入門(輸出門)可能會使用來自其它記憶單元(memory cell)的輸入來決定是否存儲(讀?。┢溆洃泦卧械奶囟ㄐ畔ⅰ?/p>

記憶單元包含門(gate)。門特定于它們調(diào)解的連接。輸入門是為了糾正輸入權(quán)重沖突,而輸出門是為了消除輸出權(quán)重沖突。

門:具體來說,為了緩解輸入和輸出權(quán)重沖突以及干擾,我們引入了一個乘法輸入門單元來保護(hù)存儲的記憶內(nèi)容免受不相關(guān)輸入的干擾,還引入了一個乘法輸出門單元來保護(hù)其它單元免受存儲中當(dāng)前不相關(guān)記憶內(nèi)容的干擾。

LSTM 架構(gòu)示例

LSTM 架構(gòu)示例。這個 LSTM 網(wǎng)絡(luò)帶有 8 個輸入單元、4 個輸出單元和 2 個大小為 2 的記憶單元模塊。in1 是指輸入門,out1 是指輸出門,cell1 = block1 是指 block 1 的***個記憶單元。來自 1997 年的《Long Short-Term Memory》

因?yàn)樘幚碓氐亩鄻有院头答佭B接的,LSTM 中的連接比多層感知器的連接復(fù)雜。

記憶單元模塊:記憶單元共享同一個輸入門和同一個輸出門,構(gòu)成一種名叫記憶單元模塊(memory cell block)的結(jié)構(gòu)。

記憶單元模塊有利于信息存儲;就像傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)一樣,在單個單元內(nèi)編碼一個分布式輸入可不是一件容易的事情。一個大小為 1 的記憶單元模塊就是一個簡單的記憶單元。

學(xué)習(xí)(Learning):一種考慮了由輸入和輸出門導(dǎo)致的修改過的、乘法動態(tài)的實(shí)時循環(huán)學(xué)習(xí)(RTRL/Real Time Recurrent Learning)的變體被用于確保通過記憶單元誤差的內(nèi)部狀態(tài)反向傳播到達(dá)「記憶單元網(wǎng)絡(luò)輸入(memory cell net inputs)」的非衰減誤差(non-decaying error)不會在時間中被進(jìn)一步反向傳播。

猜測(Guessing):這種隨機(jī)方法可以超越許多時間滯后算法。事實(shí)已經(jīng)說明,之前的工作中所使用的許多長時間滯后任務(wù)可以通過簡單的隨機(jī)權(quán)重猜測得到比提出的算法更快的解決。

  • 參見 S. Hochreiter 和 J. Schmidhuber《Long-Short Term Memory》:http://dl.acm.org/citation.cfm?id=1246450

LSTM 循環(huán)神經(jīng)網(wǎng)絡(luò)最有意思的應(yīng)用出現(xiàn)在語言處理領(lǐng)域。更全面的描述可參閱 Gers 的論文 :

  • F. Gers 和 J. Schmidhuber 2001 年的論文《LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages》:ftp://ftp.idsia.ch/pub/juergen/L-IEEE.pdf
  • F. Gers 2001 年的博士論文《Long Short-Term Memory in Recurrent Neural Networks》:http://www.felixgers.de/papers/phd.pdf

LSTM 的局限性

LSTM 有效的截斷版本無法輕松解決類似于「強(qiáng)延遲的異或(strongly delayed XOR)」這樣的問題。

每個記憶單元模塊都需要一個輸入門和一個輸出門。并不一定需要其它循環(huán)方法。

在記憶單元內(nèi)穿過「常量誤差傳送帶(Constant Error Carrousels)」的常量誤差流可以得到與傳統(tǒng)的前饋架構(gòu)(會一次性獲得整個輸入串)一樣的效果。

和其它前饋方法一樣,LSTM 也有「regency」概念上的缺陷。如果需要精密的計數(shù)時間步驟,那么可能就需要額外的計數(shù)機(jī)制。

LSTM 的優(yōu)點(diǎn)

該算法橋接長時間滯后的能力來自其架構(gòu)的記憶單元中的常量誤差反向傳播。

LSTM 可以近似有噪聲的問題域、分布式表征和連續(xù)值。

LSTM 可以很好地泛化其所考慮的問題域。這是很重要的,因?yàn)橛械娜蝿?wù)無法用已有的循環(huán)網(wǎng)絡(luò)解決。

在問題域上對網(wǎng)絡(luò)參數(shù)進(jìn)行微調(diào)看起來是不必要的。

在每個權(quán)重和時間步的更新復(fù)雜度方面,LSTM 基本上就等于 BPTT。

LSTM 很強(qiáng)大,在機(jī)器翻譯等領(lǐng)域?qū)崿F(xiàn)了當(dāng)前***的結(jié)果。

門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)

門控循環(huán)單元神經(jīng)網(wǎng)絡(luò)已經(jīng)在序列和時間數(shù)據(jù)上得到了成功的應(yīng)用。

最適合語音識別、自然語言處理和機(jī)器翻譯。與 LSTM 一起,它們在長序列問題領(lǐng)域表現(xiàn)優(yōu)良。

門控(gating)被認(rèn)為是在 LSTM 主題中,涉及到一個門控網(wǎng)絡(luò)生成信號來控制當(dāng)前輸入和之前記憶發(fā)生作用的方式,以更新當(dāng)前的激活,從而更新當(dāng)前的網(wǎng)絡(luò)狀態(tài)。

門本身是自我加權(quán)的,會在整個學(xué)習(xí)階段中根據(jù)一個算法有選擇性地更新。

門網(wǎng)絡(luò)會增加計算復(fù)雜度,從而會增加參數(shù)化(parameterization),進(jìn)而引入額外的計算成本。

LSTM RNN 架構(gòu)將簡單 RNN 的計算用作內(nèi)部記憶單元(狀態(tài))的中間候選項(xiàng)。門控循環(huán)單元(GRU)RNN 將 LSTM RNN 模型的門控信號減少到了 2 個。這兩個門分別被稱為更新門(update gate)和重置門(reset gate)。

GRU(和 LSTM)RNN 的門控機(jī)制和在參數(shù)化方面的簡單 RNN 一樣。對應(yīng)這些門的權(quán)重也使用 BPTT 隨機(jī)梯度下降來更新,因?yàn)槠湟噲D最小化成本函數(shù)。

每個參數(shù)更新都將涉及到與整體網(wǎng)絡(luò)的狀態(tài)相關(guān)的信息。這可能會有不利影響。

門控的概念可使用三種新變體的門控機(jī)制來探索和擴(kuò)展。

這三種門控變體為:GRU1(其中僅使用之前的隱藏狀態(tài)和偏置來計算每個門——、GRU2(其中僅使用之前的隱藏狀態(tài)來計算每個門—)和 GRU3(其中僅使用偏置來計算每個門)。我們可以觀察到參數(shù)顯著減少,其中 GRU3 的參數(shù)數(shù)量最小。

這三種變體和 GRU RNN 在手寫數(shù)字的 MNIST 數(shù)據(jù)庫和 IMDB 電影評論數(shù)據(jù)集上進(jìn)行了基準(zhǔn)測試。

從 MNIST 數(shù)據(jù)集生成了 2 個序列長度,而從 IMDB 數(shù)據(jù)集生成了 1 個序列長度。

這些門的主要驅(qū)動信號似乎是(循環(huán))狀態(tài),因?yàn)槠浒P(guān)于其它信號的基本信息。

隨機(jī)梯度下降的使用隱含地攜帶了有關(guān)網(wǎng)絡(luò)狀態(tài)的信息。這可以解釋僅在門信號中使用偏置的相對成功,因?yàn)槠渥赃m應(yīng)更新攜帶了有關(guān)網(wǎng)絡(luò)狀態(tài)的信息。

門控變體可使用有限的拓?fù)浣Y(jié)構(gòu)評估來探索門控機(jī)制。

更多信息請參閱:

  • R. Dey 和 F. M. Salem 2017 年的論文《Gate-Variants of Gated Recurrent Unit (GRU) Neural Networks》:https://arxiv.org/ftp/arxiv/papers/1701/1701.05923.pdf
  • J. Chung 等人 2014 年的論文《Empirical Evaluation of Gated Recurrent Neural Networks on Sequence Modeling》:https://pdfs.semanticscholar.org/2d9e/3f53fcdb548b0b3c4d4efb197f164fe0c381.pdf

神經(jīng)圖靈機(jī)

神經(jīng)圖靈機(jī)通過將神經(jīng)網(wǎng)絡(luò)與外部記憶資源耦合而對該神經(jīng)網(wǎng)絡(luò)的能力進(jìn)行了延展——它們可以通過注意(attention)過程與外部記憶資源交互。參閱機(jī)器之心文章《神經(jīng)圖靈機(jī)深度講解:從圖靈機(jī)基本概念到可微分神經(jīng)計算機(jī)》。

這種組合的系統(tǒng)類似于圖靈機(jī)或馮·諾依曼結(jié)構(gòu),但它是端到端可微分的,使得其可以有效地使用梯度下降進(jìn)行訓(xùn)練。

初步的結(jié)果表明神經(jīng)圖靈機(jī)可以根據(jù)輸入和輸出樣本推理得到基本的算法,比如復(fù)制、排序和聯(lián)想回憶(associative recall)。

RNN 相比于其它機(jī)器學(xué)習(xí)方法的突出之處在于其在長時間范圍內(nèi)學(xué)習(xí)和執(zhí)行數(shù)據(jù)的復(fù)雜轉(zhuǎn)換的能力。此外,我們都知道 RNN 是圖靈完備的,因此其有能力模擬任意程序,只要連接方式合適即可。

標(biāo)準(zhǔn) RNN 的能力被擴(kuò)展以簡化算法任務(wù)的解決方案。這種豐富性主要是通過一個巨大的可尋址的記憶實(shí)現(xiàn)的,所以通過類比于圖靈的通過有線存儲磁帶實(shí)現(xiàn)的有限狀態(tài)機(jī)(finite-state machine)的豐富性,其被命名為神經(jīng)圖靈機(jī)(NTM)。

和圖靈機(jī)不同,神經(jīng)圖靈機(jī)是一種可微分的計算機(jī),可以通過梯度下降訓(xùn)練,從而為學(xué)習(xí)程序提供了一種實(shí)用的機(jī)制。

神經(jīng)圖靈機(jī)架構(gòu)

神經(jīng)圖靈機(jī)架構(gòu)。NTM 架構(gòu)大體上如上所示。在每一個更新循環(huán)中,控制器網(wǎng)絡(luò)接收一個來自外部環(huán)境的輸入并給出一個輸出作為響應(yīng)。它也會通過一系列并行的讀寫頭來讀寫一個記憶矩陣(memory matrix)。虛線是 NTM 回路與外部世界的分界線。來自 2014 年的《Neural Turing Machines》

關(guān)鍵在于,該架構(gòu)的每個組件都是可微分的,使其可以直接使用梯度下降進(jìn)行訓(xùn)練。這可以通過定義「模糊(blurry)」的讀寫操作來實(shí)現(xiàn),其可以或多或少地與記憶中的所有元素進(jìn)行交互(而非像普通的圖靈機(jī)或數(shù)字計算機(jī)那樣處理單個元素)。

更多信息請參閱:

  • A. Graves 等人 2014 年的《Neural Turing Machines》:https://arxiv.org/pdf/1410.5401.pdf
  • R. Greve 等人 2016 年的《Evolving Neural Turing Machines for Reward-based Learning》:http://sebastianrisi.com/wp-content/uploads/greve_gecco16.pdf

NTM 實(shí)驗(yàn)

復(fù)制(copy)任務(wù)可以測試 NTM 是否可以存儲和回調(diào)長序列的任意信息。向該網(wǎng)絡(luò)提供一個隨機(jī)二進(jìn)制向量的輸入序列,后面跟著一個分隔符。

該網(wǎng)絡(luò)被訓(xùn)練用來復(fù)制 8 位的隨機(jī)向量序列,其中序列長度是在 1 到 20 之間隨機(jī)的。目標(biāo)序列就僅僅是輸入序列的副本而已(沒有分隔符)。

重復(fù)復(fù)制任務(wù)是復(fù)制任務(wù)的擴(kuò)展,即要求該網(wǎng)絡(luò)輸出被復(fù)制的序列給定的次數(shù),然后給出一個序列終止標(biāo)志。這個任務(wù)的主要目的是看 NTM 是否可以學(xué)習(xí)簡單的嵌套函數(shù)。

該網(wǎng)絡(luò)的輸入是隨機(jī)長度的隨機(jī)二進(jìn)制向量序列,后面跟著一個標(biāo)量值,表示我們想要的副本的數(shù)量,其出現(xiàn)在一個單獨(dú)的輸入信道上。

聯(lián)想記憶任務(wù)(associative recall tasks)涉及到組織間接產(chǎn)生的數(shù)據(jù),即當(dāng)一個數(shù)據(jù)項(xiàng)指向另一個項(xiàng)的時候。要創(chuàng)建一個項(xiàng)列表,使得查詢其中一個項(xiàng)時需要該網(wǎng)絡(luò)返回后續(xù)的項(xiàng)。

我們定義了一個二進(jìn)制向量序列,通過分隔符對其左右進(jìn)行了限制。在幾個項(xiàng)被傳播到該網(wǎng)絡(luò)中后,通過展示隨機(jī)項(xiàng)對該網(wǎng)絡(luò)進(jìn)行查詢,看該網(wǎng)絡(luò)是否可以產(chǎn)生下一個項(xiàng)。

動態(tài) N-gram 任務(wù)測試的是 NTM 是否可以通過使用記憶作為可覆寫的表格來快速適應(yīng)新的預(yù)測分布;該網(wǎng)絡(luò)可以使用這個表格來持續(xù)對轉(zhuǎn)換統(tǒng)計保持計數(shù),從而模擬傳統(tǒng)的 N-gram 模型。

考慮在二進(jìn)制序列上的所有可能的 6-gram 分布的集合。每個 6-gram 分布都可以被表達(dá)成一個有 32 個數(shù)字的表格,其基于所有可能長度的 5 個二進(jìn)制歷史指定了下一位(bit)為 1 的概率。通過使用當(dāng)前的查找表繪制 200 個連續(xù)的位,會生成一個特定的訓(xùn)練序列。該網(wǎng)絡(luò)對該序列進(jìn)行觀察,一次一位,然后被要求預(yù)測出下一位。

優(yōu)先級排序任務(wù)測試的是 NTM 的排序能力。該網(wǎng)絡(luò)的輸入是一個隨機(jī)二進(jìn)制向量的序列,以及每個向量的一個標(biāo)量優(yōu)先級評分。該優(yōu)先級是在 [-1, 1] 范圍內(nèi)均勻分布的。目標(biāo)序列是根據(jù)它們的優(yōu)先級排序后的二進(jìn)制向量序列。

NTM 有 LSTM 的前饋結(jié)構(gòu)作為它們的組件之一。

總結(jié)

你通過這篇文章了解了用于深度學(xué)習(xí)的循環(huán)神經(jīng)網(wǎng)絡(luò)。具體來說,你了解了:

  • 用于深度學(xué)習(xí)的***循環(huán)神經(jīng)網(wǎng)絡(luò)的工作方式,其中包括 LSTM、GRU 和 NTM。
  • *** RNN 與人工神經(jīng)網(wǎng)絡(luò)中更廣泛的循環(huán)(recurrence)研究的相關(guān)性。
  • RNN 研究如何在一系列高難度問題上實(shí)現(xiàn)了當(dāng)前***的表現(xiàn)。

聲明:本文轉(zhuǎn)自機(jī)器之心,原文來自MachineLearningMastery,作者Jason Brownlee,譯者熊貓。

責(zé)任編輯:張子龍 來源: 機(jī)器之心
相關(guān)推薦

2022-12-14 08:25:10

2017-04-11 20:24:30

機(jī)器學(xué)習(xí)架構(gòu)神經(jīng)圖靈機(jī)

2018-04-08 11:20:43

深度學(xué)習(xí)

2017-04-26 14:32:24

神經(jīng)網(wǎng)絡(luò)人工智能對杭樣本

2023-04-19 10:17:35

機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-03-29 09:02:24

深度學(xué)習(xí)預(yù)測間隔

2016-12-27 14:24:57

課程筆記神經(jīng)網(wǎng)絡(luò)

2023-09-03 14:17:56

深度學(xué)習(xí)人工智能

2021-11-12 15:41:42

LSTM神經(jīng)網(wǎng)絡(luò)人工智能

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)算法

2023-02-28 08:00:00

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)人工智能

2017-12-22 08:47:41

神經(jīng)網(wǎng)絡(luò)AND運(yùn)算

2018-09-13 22:22:48

深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)人工智能

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2020-09-09 10:20:48

GraphSAGE神經(jīng)網(wǎng)絡(luò)人工智能

2018-12-20 11:38:37

神經(jīng)元神經(jīng)網(wǎng)絡(luò)語言

2020-05-27 11:10:54

KerasLSTM神經(jīng)網(wǎng)絡(luò)

2017-03-07 13:55:30

自動駕駛神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

2017-05-23 18:54:18

深度學(xué)習(xí)人工智能

2021-07-07 10:57:08

神經(jīng)網(wǎng)絡(luò)AI算法
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號