自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

帶你深入剖析遞歸神經(jīng)網(wǎng)絡(luò)

人工智能 深度學(xué)習(xí)
遞歸神經(jīng)網(wǎng)絡(luò)(RNN)是一類神經(jīng)網(wǎng)絡(luò),包括一層內(nèi)的加權(quán)連接。因為 RNN 包含循環(huán),所以它們可以在處理新輸入的同時存儲信息。這種記憶使它們非常適合處理必須考慮事先輸入的任務(wù)。由于這個原因,目前的深度學(xué)習(xí)網(wǎng)絡(luò)均以 RNN 為基礎(chǔ)。本教程將探索 RNN 背后的思想,并從頭實現(xiàn)一個 RNN 來執(zhí)行序列數(shù)據(jù)預(yù)測。

[[211637]]

遞歸神經(jīng)網(wǎng)絡(luò)(RNN)是一類神經(jīng)網(wǎng)絡(luò),包括一層內(nèi)的加權(quán)連接(與傳統(tǒng)前饋網(wǎng)絡(luò)相比,連接僅饋送到后續(xù)層)。因為 RNN 包含循環(huán),所以它們可以在處理新輸入的同時存儲信息。這種記憶使它們非常適合處理必須考慮事先輸入的任務(wù)(比如時序數(shù)據(jù))。由于這個原因,目前的深度學(xué)習(xí)網(wǎng)絡(luò)均以 RNN 為基礎(chǔ)。本教程將探索 RNN 背后的思想,并從頭實現(xiàn)一個 RNN 來執(zhí)行序列數(shù)據(jù)預(yù)測。

神經(jīng)網(wǎng)絡(luò)是基于高度連接的處理元件(神經(jīng)元)的網(wǎng)絡(luò)將輸入映射到輸出的計算結(jié)構(gòu)。要快速了解神經(jīng)網(wǎng)絡(luò),請閱讀我的另一篇教程“神經(jīng)網(wǎng)絡(luò)深入剖析”,其中分析了感知器(神經(jīng)網(wǎng)絡(luò)的構(gòu)建塊)以及具有反向傳播學(xué)習(xí)能力的多層感知器。

在前面的教程中,我探討了前饋網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)。在此拓?fù)浣Y(jié)構(gòu)中(如下圖所示),可以通過隱藏層將輸入矢量饋送到網(wǎng)絡(luò)中,并最終獲得一個輸出。在這個網(wǎng)絡(luò)中,輸入以確定性的方式映射到輸出(每次輸入被應(yīng)用)

 

但是,我們假設(shè)您在處理時序數(shù)據(jù)。孤立的單一數(shù)據(jù)點并不是完全有用的,因為它缺乏重要的屬性(例如,數(shù)據(jù)序列是否在發(fā)生變化?是增大?還是縮小?)??紤]一個自然語言處理應(yīng)用程序,其中的字母或單詞表示網(wǎng)絡(luò)輸入。當(dāng)您考慮理解單詞時,字母在上下文中很重要。孤立狀態(tài)下的這些輸入沒有什么用,只有將它們放入之前發(fā)生的事件的上下文中才有用。

時間序列數(shù)據(jù)的應(yīng)用需要一種可以考慮輸入歷史的新型拓?fù)浣Y(jié)構(gòu)。這時就可以應(yīng)用 RNN。RNN 能夠通過反饋來維護(hù)內(nèi)部記憶,所以它支持時間行為。在下面的示例中,會將隱藏層輸出應(yīng)用回隱藏層。網(wǎng)絡(luò)保持前饋方式(先將輸入應(yīng)用于隱藏層,然后再應(yīng)用于輸出層),但 RNN 通過上下文節(jié)點保持內(nèi)部狀態(tài)(這會影響后續(xù)輸入上的隱藏層)。

 

RNN 不是一類網(wǎng)絡(luò),而是一個包含解決不同問題的拓?fù)浣Y(jié)構(gòu)的集合。遞歸網(wǎng)絡(luò)的一個重要方面在于,借助足夠的層和節(jié)點,它們是圖靈完備的,這意味著它們可以實現(xiàn)任何可計算函數(shù)。

RNN 的架構(gòu)

RNN 是在 20 世紀(jì) 80 年代引入的,它們保持對過去輸入記憶的能力為神經(jīng)網(wǎng)絡(luò)開啟了新的問題領(lǐng)域。讓我們看看您可以使用的一些架構(gòu)。

Hopfield

Hopfield 網(wǎng)絡(luò)是一種聯(lián)想記憶。給定一種輸入模式,它將獲取與該輸入最相似的模式。這種聯(lián)想(輸入與輸出之間的聯(lián)系)類似于人腦的工作方式。給定一段記憶的一部分,人類能完全回想起該記憶,Hopfield 網(wǎng)絡(luò)的工作原理與此類似。

Hopfield 網(wǎng)絡(luò)實質(zhì)上是二進(jìn)制的,各個神經(jīng)元要么打開(激活),要么關(guān)閉(未激活)。每個神經(jīng)元都通過一個加權(quán)連接與其他每個神經(jīng)元相連(參見下圖)。每個神經(jīng)元同時用作輸入和輸出。在初始化時,會在網(wǎng)絡(luò)中載入一個部分模式,然后更新每個神經(jīng)元,直到該網(wǎng)絡(luò)收斂(它一定會收斂)。輸出是在收斂(神經(jīng)元的狀態(tài))時提供的。

 

Hopfield網(wǎng)絡(luò)能夠?qū)W習(xí)(通過Hebbian學(xué)習(xí))多種模式,并且在輸入中存在噪聲的情況下收斂以回憶最接近的模式。Hopfield 網(wǎng)絡(luò)不適合用來解決時域問題,而是經(jīng)常性的。

簡單遞歸網(wǎng)絡(luò)

簡單遞歸網(wǎng)絡(luò)是一類流行的遞歸網(wǎng)絡(luò),其中包括將狀態(tài)引入網(wǎng)絡(luò)的狀態(tài)層。。狀態(tài)層影響下一階段的輸入,所以可應(yīng)用于隨時間變化的數(shù)據(jù)模式。

你可以用不同的方式應(yīng)用狀態(tài),其中兩種流行方法是 Elman 和 Jordan 網(wǎng)絡(luò)(參見下圖)。在 Elman 網(wǎng)絡(luò)中,隱藏層對保留了過去輸入記憶的上下文節(jié)點狀態(tài)層進(jìn)行饋送。如下圖所示,存在一組上下文節(jié)點來保持之前的隱藏層結(jié)果的記憶。另一種流行的拓?fù)浣Y(jié)構(gòu)是 Jordan 網(wǎng)絡(luò)。Jordan 網(wǎng)絡(luò)有所不同,因為它們將輸出層存儲到狀態(tài)層中,而不是保留隱藏層的歷史記錄。

 

Elman 和 Jordan 網(wǎng)絡(luò)可通過標(biāo)準(zhǔn)的反向傳播來訓(xùn)練,每種網(wǎng)絡(luò)都已應(yīng)用到序列識別和自然語言處理中。請注意,這里僅引入了一個狀態(tài)層,但很容易看出,您可以添加更多狀態(tài)層,在這些狀態(tài)層中,狀態(tài)層輸出可充當(dāng)后續(xù)狀態(tài)層的輸入。本教程將在 Elman 網(wǎng)絡(luò)部分中探討此概念。

其他網(wǎng)絡(luò)

遞歸式網(wǎng)絡(luò)的研究并沒有停止,如今,遞歸架構(gòu)正在設(shè)立處理時序數(shù)據(jù)的標(biāo)準(zhǔn)。深度學(xué)習(xí)中的長短期記憶 (LSTM) 方法已經(jīng)在卷積網(wǎng)絡(luò)中得到應(yīng)用,以便通過生成的語言來描述圖像和視頻的內(nèi)容。LSTM 包含一個遺忘門,讓您能對各個神經(jīng)元進(jìn)行“訓(xùn)練”,使其了解哪些信息是重要的,以及這保持重要性信息的時間。LSTM 可以處理重要事件間隔時間較長的數(shù)據(jù)。

另一種***的架構(gòu)稱為門控遞歸單元 (GRU)。GRU 是對 LSTM 的一種優(yōu)化,需要的參數(shù)和資源更少。

RNN 訓(xùn)練算法

由于 RNN 具有將歷史信息按時序或序列進(jìn)行合并的性質(zhì),所以它們擁有獨特的訓(xùn)練算法。梯度下降算法已成功應(yīng)用到 RNN 權(quán)重優(yōu)化上(通過與權(quán)重的誤差導(dǎo)數(shù)呈一定比例地調(diào)節(jié)權(quán)重來最小化誤差)。一種流行的技術(shù)是時間反向傳播 (BPTT),它應(yīng)用了權(quán)重更新,它通過累加序列中每個元素的累積誤差的權(quán)重更新來應(yīng)用權(quán)重更新,,***更新權(quán)重。對于大型的輸入序列,此行為可能導(dǎo)致權(quán)重消失或爆炸(稱為消失或爆炸梯度問題)。要解決此問題,通常會使用混合方法,并結(jié)合使用 BPTT 與實時遞歸學(xué)習(xí)等其他算法。

其他訓(xùn)練方法也能成功應(yīng)用于不斷進(jìn)化的 RNN??蓱?yīng)用進(jìn)化算法(比如遺傳算法或模擬退火法)來進(jìn)化候選 RNN 群體,然后將它們重新組合為它們的適合度(即它們解決給定問題的能力)的函數(shù)。盡管不保證能收斂于一個解決方案,但可以成功地將收斂應(yīng)用于一系列問題,包括 RNN 進(jìn)化。

RNN 的一個有用的應(yīng)用是預(yù)測序列。在下一個示例中,我將構(gòu)建一個 RNN,用它根據(jù)一個小詞匯表來預(yù)測某個單詞的***一個字母。我將單詞饋送入 RNN 中,一次加載一個字母,網(wǎng)絡(luò)的輸出將表示預(yù)測的下一個字母。

遺傳算法流

查看 RNN 示例之前,讓我們看看遺傳算法背后的流程。遺傳算法是一種受自然選擇過程啟發(fā)的優(yōu)化技術(shù)。如下圖所示,該算法創(chuàng)建了一個隨機的候選解決方案(稱為染色體)群體,這些解決方案對將要尋找的解決方案的參數(shù)進(jìn)行編碼。創(chuàng)建它們后,針對相應(yīng)問題對該群體的每個成員進(jìn)行測試,并分配一個適合度值。然后從群體中識別父染色體(***具有更高適合度的染色體),并為下一代創(chuàng)建一個子染色體。在子染色體這一代中,應(yīng)用遺傳運算符(比如從每個父染色體獲取元素 [稱為雜交] 并向子染色體引入隨機變化 [稱為突變])。然后使用新群體再次開始此過程,直到找到合適的候選解決方案。

 

用染色體組表示神經(jīng)網(wǎng)絡(luò)

一個染色體被定義為群體的一個成員,包含要解決的特定問題的編碼。在進(jìn)化 RNN 的上下文中,染色體由 RNN 的權(quán)重組成,如下圖所示。

 

每個染色體包含每個權(quán)重的 16 位值。將該值(介于 0 – 65535 之間)轉(zhuǎn)換為權(quán)重,方法是減去該范圍的一半,然后乘以 0.001。這意味著該編碼可以表示 -32.767 到 32.768 之間增量為 0.001 的值。

對于從群體中獲取染色體并生成 RNN 的過程,只需將其定義為使用從染色體轉(zhuǎn)換而來的權(quán)重來初始化網(wǎng)絡(luò)的權(quán)重。在本例中,這表示 233 個權(quán)重。

使用 RNN 預(yù)測字母

現(xiàn)在,我們來探討字母在神經(jīng)網(wǎng)絡(luò)中的應(yīng)用。神經(jīng)網(wǎng)絡(luò)處理的是數(shù)字值,所以需要采用某種表示形式來將字母饋送入網(wǎng)絡(luò)中。在本例中,我使用了獨熱編碼。獨熱編碼將一個字母轉(zhuǎn)換為一個矢量,而且矢量中僅設(shè)置一個元素。這種編碼創(chuàng)造了一種可在數(shù)學(xué)上使用的獨特特征 — 例如,表示的每個字母都會在網(wǎng)絡(luò)中應(yīng)用自己的權(quán)重。盡管在此實現(xiàn)中,我通過獨熱編碼來表示字母;但自然語言處理應(yīng)用程序也以相同方式表示單詞。下圖演示了這個示例中使用的獨熱矢量和用于測試的詞匯表。

 

所以,現(xiàn)在我有一種使我的 RNN 能夠處理字母的編碼?,F(xiàn)在,讓我們看看如何在 RNN 的上下文中處理字母。下圖演示了字母預(yù)測上下文中的 Elman 式 RNN(饋送表示字母 b 的獨熱矢量)。對于測試單詞中的每個字母,我將該字母編碼為獨熱碼,然后將它作為輸入饋送給網(wǎng)絡(luò)。然后,以前饋方式執(zhí)行該網(wǎng)絡(luò),并以勝者全得的方式解析輸出,以確定定義獨熱矢量的獲勝元素(在本例中為字母 a)。在此實現(xiàn)中,僅檢查了單詞的***一個字母,驗證中忽略了其他字母,也沒有對它們執(zhí)行適合度計算。

 

簡單的 Elman 式 RNN 實現(xiàn)

讓我們來看一個通過遺傳算法訓(xùn)練的 Elman 式 RNN 的樣本實現(xiàn)。可以在 GitHub 上找到此實現(xiàn)的 Linux 源代碼。該實現(xiàn)由 3 個文件組成:

  • main.c 提供主循環(huán)、一個用于測試的函數(shù),以及一個用于獲得群體適合度的函數(shù)
  • ga.c 實現(xiàn)了遺傳算法函數(shù)
  • rnn.c 實現(xiàn)了實際的 RNN

我將重點介紹兩個核心函數(shù):遺傳算法流程和 RNN 評估函數(shù)

RNN 的核心內(nèi)容可以在 RNN_feed_forward 函數(shù)中找到,該函數(shù)實現(xiàn)了 RNN 網(wǎng)絡(luò)的執(zhí)行(參見以下代碼)。該函數(shù)被拆分為 3 個階段,類似于上圖中顯示的網(wǎng)絡(luò)。在***階段,計算隱藏層的輸出,隱藏層合并了輸入層和上下文層(每層都有自己的一組權(quán)重)。上下文節(jié)點已在測試給定單詞之前初始化為 0。在第二階段,我將計算輸出層的輸出。這一步合并了每個隱藏層神經(jīng)元與它們自己的獨特權(quán)重。***,在第三階段,我將***個上下文層神經(jīng)元傳播到第二個上下文層神經(jīng)元,將隱藏層輸出傳播到***個上下文節(jié)點。這一步在網(wǎng)絡(luò)中實現(xiàn)了兩個記憶層。

請注意,在隱藏層中,我使用 tan 函數(shù)作為激活函數(shù),并使用 sigmoid 函數(shù)作為輸出層中的激活函數(shù)。tan 函數(shù)在隱藏層中很有用,因為它的范圍是 -1 到 1(它還允許使用來自隱藏層的正輸出和負(fù)輸出)。在輸出層中,我感興趣的是激活獨熱矢量的***值,我使用了 sigmoid,因為它的范圍是 0 到 1。

  1. void RNN_feed_forward( void ) 
  2.  
  3.  
  4.    int i, j, k; 
  5.  
  6.   
  7.  
  8.    // Stage 1: Calculate hidden layer outputs 
  9.  
  10.    for ( i = 0 ; i < HIDDEN_NEURONS ; i++ ) 
  11.  
  12.    { 
  13.  
  14.       hidden[ i ] = 0.0; 
  15.  
  16.   
  17.  
  18.       // Incorporate the input. 
  19.  
  20.       for ( j = 0 ; j < INPUT_NEURONS+1 ; j++ ) 
  21.  
  22.       { 
  23.  
  24.          hidden[ i ] += w_h_i[ i ][ j ] * inputs[ j ]; 
  25.  
  26.       } 
  27.  
  28.   
  29.  
  30.       // Incorporate the recurrent hidden. 
  31.  
  32.       hidden[ i ] += w_h_c1[ i ] * context1[ i ]; 
  33.  
  34.       hidden[ i ] += w_h_c2[ i ] * context2[ i ]; 
  35.  
  36.   
  37.  
  38.       // apply tanh activation function
  39.  
  40.       hidden[ i ] = tanh( hidden[ i ] ); 
  41.  
  42.    } 
  43.  
  44.   
  45.  
  46.    // Stage 2: Calculate output layer outputs 
  47.  
  48.    for ( i = 0 ; i < OUTPUT_NEURONS ; i++ ) 
  49.  
  50.    { 
  51.  
  52.       outputs[ i ] = 0.0; 
  53.  
  54.   
  55.  
  56.       for ( j = 0 ; j < HIDDEN_NEURONS+1 ; j++ ) 
  57.  
  58.       { 
  59.  
  60.          outputs[ i ] += ( w_o_h[ i ][ j ] * hidden[ j ] ); 
  61.  
  62.       } 
  63.  
  64.   
  65.  
  66.       // apply sigmoid activation function
  67.  
  68.       outputs[ i ] = sigmoid( outputs[ i ] ); 
  69.  
  70.    } 
  71.  
  72.   
  73.  
  74.    // Stage 3: Save the context hidden value 
  75.  
  76.    for ( k = 0 ; k < HIDDEN_NEURONS+1 ; k++ ) 
  77.  
  78.    { 
  79.  
  80.       context2[ k ] = context1[ k ]; 
  81.  
  82.       context1[ k ] = hidden[ k ]; 
  83.  
  84.    } 
  85.  
  86.   
  87.  
  88.    return
  89.  

我在下面的代碼示例中實現(xiàn)了遺傳算法??梢苑?3 部分查看此代碼。***部分計算群體的總適合度(在選擇過程中使用),以及群體中最適合的染色體。第二部分中使用最適合的染色體,僅將此染色體復(fù)制到下一個群體。這是一種精英選擇形式,我將維護(hù)最適合的染色體,一直到將其復(fù)制到下一個群體中。該群體包含 2,000 個染色體。

在遺傳算法的***一部分中,我從群體中隨機選擇兩個父染色體,利用它們?yōu)橄乱粋€群體創(chuàng)建一個子染色體。選擇算法基于所謂的輪盤抽獎選擇方法,染色體是隨機選擇的,但選中更符合的父染色體的幾率更高一些。選擇兩個父染色體后,將它們重新組合成下一個群體的子染色體。此過程蘊含雜交(選擇一位父親的基因來傳播)和突變(可以隨機重新定義一個權(quán)重)的可能性。發(fā)生雜交和突變的概率很低(每次重新組合對應(yīng)一次突變,而雜交次數(shù)則更少)。

  1. void GA_process_population( unsigned int pop ) 
  2.  
  3.  
  4.    double sum = 0.0; 
  5.  
  6.    double max = 0.0; 
  7.  
  8.    int best; 
  9.  
  10.    int i, child; 
  11.  
  12.   
  13.  
  14.    best = 0; 
  15.  
  16.    sum = max = population[ pop ][ best ].fitness; 
  17.  
  18.   
  19.  
  20.    // Calculate the total population fitness 
  21.  
  22.    for ( i = 1 ; i < POP_SIZE ; i++ ) 
  23.  
  24.    { 
  25.  
  26.       sum += population[ pop ][ i ].fitness; 
  27.  
  28.       if ( population[ pop ][ i ].fitness > max ) 
  29.  
  30.       { 
  31.  
  32.          best = i; 
  33.  
  34.          max = population[ pop ][ i ].fitness; 
  35.  
  36.       } 
  37.  
  38.    } 
  39.  
  40.   
  41.  
  42.    // Elitist -- keep the best performing chromosome. 
  43.  
  44.    recombine( pop, best, best, 0, 0.0, 0.0 ); 
  45.  
  46.   
  47.  
  48.    // Generate the next generation. 
  49.  
  50.    for ( child = 1 ; child < POP_SIZE ; child++ ) 
  51.  
  52.    { 
  53.  
  54.       unsigned int parent1 = select_parent( pop, sum ); 
  55.  
  56.       unsigned int parent2 = select_parent( pop, sum ); 
  57.  
  58.   
  59.  
  60.       recombine( pop, parent1, parent2, child, MUTATE_PROB, CROSS_PROB ); 
  61.  
  62.    } 
  63.  
  64.   
  65.  
  66.    return
  67.  

樣本執(zhí)行

可以在 Linux 中構(gòu)建 GitHub 上的樣本源代碼,只需鍵入 make 并使用 ./rnn 來執(zhí)行。執(zhí)行時,會隨機創(chuàng)建群體,然后對一些代進(jìn)行自然選擇,直到找到準(zhǔn)確預(yù)測了整個測試詞匯表的***一個字符的解決方案,或者直到模擬未能正確地收斂于一個解決方案上。成敗與否由平均適合度來決定;如果平均適合度達(dá)到***適合度的 80%,那么該群體缺乏足夠的多樣性來找到解決方案,并將退出。

如果找到一個解決方案,代碼將發(fā)布整個測試詞匯表并顯示每個單詞的預(yù)測結(jié)果。請注意,染色體適合度僅基于單詞的***一個字母,所以沒有預(yù)測內(nèi)部字母。下面的代碼提供了一個成功輸出的樣本。

  1. $ ./rnn 
  2.  
  3. Solution found. 
  4.  
  5.   
  6.  
  7. Testing based 
  8.  
  9.     Fed b, got s 
  10.  
  11.     Fed a, got b 
  12.  
  13.     Fed s, got e 
  14.  
  15.     Fed e, got d 
  16.  
  17.   
  18.  
  19. Testing baned 
  20.  
  21.     Fed b, got s 
  22.  
  23.     Fed a, got b 
  24.  
  25.     Fed n, got d 
  26.  
  27.     Fed e, got d 
  28.  
  29.   
  30.  
  31. Testing sedan 
  32.  
  33.     Fed s, got s 
  34.  
  35.     Fed e, got d 
  36.  
  37.     Fed d, got s 
  38.  
  39.     Fed a, got n 
  40.  
  41.   
  42.  
  43. ... 
  44.  
  45.   
  46.  
  47. Testing den 
  48.  
  49.     Fed d, got d 
  50.  
  51.     Fed e, got n 
  52.  
  53.   
  54.  
  55. Testing abs 
  56.  
  57.     Fed a, got d 
  58.  
  59.     Fed b, got s 
  60.  
  61.   
  62.  
  63. Testing sad 
  64.  
  65.     Fed s, got s 
  66.  
  67.     Fed a, got d 

下圖展示了平均和***適合度的曲線圖。請注意,每個曲線圖都從約為 13 的適合度級別開始。12 個單詞以 d 結(jié)尾,所以為任何字母序列發(fā)布 d 的網(wǎng)絡(luò)都擁有這一成功級別。 但是,必須進(jìn)化這些權(quán)重,以便考慮前面的字母,針對給定詞匯表進(jìn)行準(zhǔn)確預(yù)測。如圖所示,在成功運行時,超過一半的世代需要預(yù)測成功運行的***一個測試用例。

 

有趣的是,每個曲線圖都演示了進(jìn)化生物學(xué)中的一種稱為間斷平衡的理論,該現(xiàn)象的特征是,一次爆發(fā)性的進(jìn)化變異打斷了長期的靜態(tài)平衡(總體穩(wěn)定性)。在一種情況下,這種爆發(fā)性的進(jìn)化會導(dǎo)致停滯在局部最小值上;在另一種情況下,進(jìn)化會成功(停滯在局部***值上)。

結(jié)束語

傳統(tǒng)神經(jīng)網(wǎng)絡(luò)能以確定性方式將輸入矢量映射到輸出矢量。對于許多問題,這是理想選擇,但在必須考慮序列和時序數(shù)據(jù)時,向網(wǎng)絡(luò)引入內(nèi)部記憶使其能夠在制定輸出決策時考慮以前的數(shù)據(jù)。RNN 在傳統(tǒng)前饋網(wǎng)絡(luò)中引入了反饋,使它們能包含一個或多個記憶級別。RNN 代表著一種未來的基礎(chǔ)架構(gòu),可以在大多數(shù)先進(jìn)的深度學(xué)習(xí)技術(shù)(比如 LSTM 和 GRU)中找到它。

責(zé)任編輯:龐桂玉 來源: 36大數(shù)據(jù)
相關(guān)推薦

2017-04-26 08:31:10

神經(jīng)網(wǎng)絡(luò)自然語言PyTorch

2021-06-29 09:53:06

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2017-11-24 11:10:39

神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)全連接神經(jīng)網(wǎng)絡(luò)

2020-05-27 11:10:54

KerasLSTM神經(jīng)網(wǎng)絡(luò)

2021-12-15 07:24:57

人工神經(jīng)網(wǎng)絡(luò)翻譯

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2017-03-20 15:23:46

人工智能連續(xù)學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2021-10-29 09:55:20

人工神經(jīng)網(wǎng)絡(luò)

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2025-02-25 14:13:31

2018-01-29 00:16:16

神經(jīng)網(wǎng)絡(luò)遞歸卷積深度學(xué)習(xí)

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機器學(xué)習(xí)算法

2021-10-15 07:57:04

Docker 日志容器

2017-05-04 18:30:34

大數(shù)據(jù)卷積神經(jīng)網(wǎng)絡(luò)

2019-05-07 19:12:28

機器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)Python

2022-04-07 09:01:52

神經(jīng)網(wǎng)絡(luò)人工智能

2023-05-04 07:39:14

圖神經(jīng)網(wǎng)絡(luò)GNN

2017-12-22 08:47:41

神經(jīng)網(wǎng)絡(luò)AND運算

2020-09-09 10:20:48

GraphSAGE神經(jīng)網(wǎng)絡(luò)人工智能

2024-06-28 08:15:02

點贊
收藏

51CTO技術(shù)棧公眾號