自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Bengio、Hinton的不懈追求——深度學習算法揭示大腦如何學習

人工智能 深度學習 算法
深度學習依賴于精妙設(shè)計的算法,一行行精妙絕倫的公式讓冰冷的計算機學習出只有人腦才能執(zhí)行的任務(wù)。深度學習算法雖然啟發(fā)自人腦的結(jié)構(gòu)單元和學習機制,但這種簡單的“模擬”其實并不是人腦真正運行的方式。在最新的研究進展中,科學家們正在抽絲剝繭,利用人工神經(jīng)網(wǎng)絡(luò)的算法機制揭示人腦的工作方法。

 [[384610]]

“如果我們能夠揭示大腦的某些學習機制或?qū)W習方法,那么人工智能將能迎來進一步的發(fā)展,”Bengio如是說。

深度學習依賴于精妙設(shè)計的算法,一行行精妙絕倫的公式讓冰冷的計算機學習出只有人腦才能執(zhí)行的任務(wù)。深度學習算法雖然啟發(fā)自人腦的結(jié)構(gòu)單元和學習機制,但這種簡單的“模擬”其實并不是人腦真正運行的方式。在最新的研究進展中,科學家們正在抽絲剝繭,利用人工神經(jīng)網(wǎng)絡(luò)的算法機制揭示人腦的工作方法。

時間回到14年前,2007年,彼時神經(jīng)網(wǎng)絡(luò)和深度學習還是一個冷門的領(lǐng)域。一群深度學習的先鋒研究人員悄悄的在一次人工智能學術(shù)會議后秘密碰頭,舉辦了一場“非法”的學術(shù)研討會。之所以說它是“非法”的,是因為主會場沒有允許他們舉辦正式的神經(jīng)網(wǎng)絡(luò)相關(guān)的研討會,畢竟當時神經(jīng)網(wǎng)絡(luò)還是個異類小眾群體,支持向量機和隨機森林等傳統(tǒng)機器學習算法才是所謂的“主流正道”。

在這場非正式的研討會的最后,來自多倫多大學的Geoffrey Hinton教授壓軸發(fā)言。彼時的Hinton還不像今日一樣名聲大噪享譽全球,當時他的身份還是一位認知心理學家和計算科學家,正在深度學習網(wǎng)絡(luò)領(lǐng)域的研究泥淖中苦苦奮戰(zhàn)。在發(fā)言之初,他很幽默的說:“大約是一年多以前,有一次我回家吃晚飯的時候說,‘我想我終于弄明白大腦是怎么工作的了!‘,然后我15歲的女兒無奈地撅起嘴回諷我道,‘唉老爸,您又來了,咱別這樣了行不’”。

當場在坐的觀眾都笑了,Hinton接著說,“所以,這就是大腦的工作原理”。這個成功的返場包袱讓大家再次忍俊不禁。

在Hinton的這個玩笑背后,是一個神經(jīng)網(wǎng)絡(luò)領(lǐng)域一直都在苦苦求索的話題:用人工智能來理解人腦。時至今日,深度學習網(wǎng)絡(luò)統(tǒng)治了人工智能領(lǐng)域,是當之無愧的新時代的弄潮兒,其背后最大的功臣之一,便是大名鼎鼎的反向傳播算法Backpropagation。有時人們也會親昵的將其簡稱為Backprop算法。這個算法能讓深度學習網(wǎng)絡(luò)的權(quán)重根據(jù)學習的目標和喂入的數(shù)據(jù)學習知識,給算法賦予多種多樣的能力,比如圖像分類、語音識別、自然語言翻譯、自動駕駛中路況的識別,或者其他更玄妙的能力。

[[384611]]

Geoffrey Hinton,多倫多大學的認知心理學家和計算科學家,引領(lǐng)了深度學習網(wǎng)絡(luò)技術(shù)的很多重大突破,包括反向傳播算法。

但是多年來的生物學研究都表明,生物大腦不太可能使用反向傳播機制來進行學習。來自Montreal大學的計算機科學家、魁北克人工智能研究所科學主任、也是2007年那場“非法”的研討會的組織者之一Yoshua Bengio說,“相對于深度學習算法,人腦更加強大,它擁有更好的泛化和學習的能力”。而且各種證據(jù)都顯示,在大腦的解剖和生理構(gòu)造上,特別是在皮質(zhì)層,人腦是幾乎不可能利用反向傳播機制進行學習的。

[[384612]]

Yoshua Bengio,Montreal大學的人工智能研究員和計算科學家,他也是研究具有生物合理性的學習算法的科學家之一,這些算法和反向傳播一樣具有很好的學習能力,但是在生物學的角度上也更加合理和可信。

在深度學習領(lǐng)域,一直以來,Bengio和很多同樣受到Hinton啟發(fā)的研究人員都在思考一個更具生物學意義的問題,就是人腦是如何工作和學習的。相對于簡單的深度學習算法來說,人腦是一個更趨于完美的有機主體,如果我們能對它的學習機制有所了解,肯定能夠促進深度學習的發(fā)展。

因此,相關(guān)的研究人員一直在苦苦求索這個人腦中的與“反向傳播”學習算法相匹配的生物機制。近年來,人們已經(jīng)取得了一些相關(guān)的進展,其中最有前景的三個發(fā)現(xiàn)包括——反饋對齊(FeedBack Alignment)、均衡傳播(Equilibrium Propagation)和預(yù)測編碼(Predictive Coding)。還有一些研究人員甚至將生物學中某些類型的皮質(zhì)層神經(jīng)元的特性和注意力機制等過程具體化到他們的算法之中,力求揭示人腦神經(jīng)元學習背后的奧秘。研究人員的每一個進步都讓我們對大腦的學習機制有了更深一步的理解。

“大腦是一個巨大的謎團,人們普遍相信,如果我們能夠揭示大腦的某些學習機制或?qū)W習方法,那么人工智能將能迎來進一步的發(fā)展”,Bengio如是說,“但是揭示人腦的工作機制本身也具有極高的研究價值”。

1 使用反向傳播進行學習

深度學習網(wǎng)絡(luò)的基礎(chǔ)之一便是生物學中的神經(jīng)元模型理論,該理論由加拿大心理學家Donald Hebb提出。數(shù)十年來,深度學習網(wǎng)絡(luò)算法的研究都是在該理論的指導下完成的。在理論模型可以通??梢员缓唵蔚馗爬?ldquo;一起激活的神經(jīng)元相互連接”。具體來說,這是指,活動越相關(guān)的神經(jīng)元之間的聯(lián)系越強。這句簡單的“真理”啟發(fā)了無數(shù)后世的研究,源于它的若干規(guī)則和算法也成功地落地在一些學習和視覺分類任務(wù)中。

但是當神經(jīng)網(wǎng)絡(luò)的規(guī)模變得十分龐大的時候,由于需要逐步從大量數(shù)據(jù)中的誤差中學習最優(yōu)的權(quán)重,反向傳播算法的效果就會差很多了。對于那些處于較深層數(shù)的深層神經(jīng)元而言,它們很難通過殘留的梯度發(fā)現(xiàn)自身誤差,從而不能很好的更新權(quán)重并降低誤差。所以在這種情況下,深層的神經(jīng)元經(jīng)常會出現(xiàn)不學習、不收斂和不擬合的問題。這種問題被稱作梯度消失。斯坦福大學的計算神經(jīng)學家和計算科學家Danniel Yamins說,“Hebb法則是一種反饋利用機制,它非常局限,只在某些很特殊情況下才會起作用,并且對誤差十分敏感”。

[[384613]]

Daniel Yamins,Stanford大學計算神經(jīng)學家和計算科學家。他正在研究如何識別生物大腦中到底“運行著”哪些算法。

然而,這是目前為止神經(jīng)學家能夠發(fā)現(xiàn)和利用的最佳的模擬人腦學習的機制了。甚至在20世紀50年代那個深度學習算法和思想還未統(tǒng)治人工智能領(lǐng)域的時候,Hebb法則就啟發(fā)了第一個神經(jīng)網(wǎng)絡(luò)模型的誕生。在那個上古時代,神經(jīng)網(wǎng)絡(luò)中的每個神經(jīng)元都僅能接受一個輸入,也只能產(chǎn)生一個輸出,就跟生物神經(jīng)元一樣。神經(jīng)元在計算中會將輸入乘以一個所謂的“突觸權(quán)重”,該突觸權(quán)重表示所連接的輸入重要度,然后將加權(quán)的輸入們求和。這個加和便構(gòu)成了各神經(jīng)元的輸出。到了20世紀60年代,神經(jīng)元被組織成了網(wǎng)絡(luò),形成一個具有輸入層和輸出層的全連接網(wǎng)絡(luò)。而具有該雛形結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型可以用來解決一些簡單的分類和回歸問題。在訓練的過程中,神經(jīng)網(wǎng)絡(luò)的目標是最小化輸出和真值之間的誤差,并據(jù)此調(diào)整各神經(jīng)元的權(quán)重取值。

而到了20世紀60年代,神經(jīng)網(wǎng)絡(luò)由于添加了輸入和輸出層,網(wǎng)絡(luò)的結(jié)構(gòu)開始從三明治向多層夾心巨無霸進化,也就是網(wǎng)絡(luò)層數(shù)開始增多。隨之而來的是深層神經(jīng)元的梯度消失問題。當時沒有人知道如何有效地訓練這些深層神經(jīng)元,也沒有妥善的方法能夠高效地訓練具有眾多隱藏層的神經(jīng)網(wǎng)絡(luò)。這個困境直到1986年才得到解決,而解決的標志便是那篇由Hinton、已故的David Rumelhart和來自美國Northeastern大學的Ronald Williams共同發(fā)表的反向傳播算法論文。

反向傳播算法可以分成前向和反向傳播兩個階段。在前向的階段中,當網(wǎng)絡(luò)得到一個輸入數(shù)據(jù),它會根據(jù)當前模型的權(quán)重得到一個輸出,而該輸出和理想的目標輸出之間存在著一些誤差。而后在反向的階段中,學習算法將根據(jù)誤差值為每個神經(jīng)元的權(quán)重進行有針對性的更新,從而使輸出和目標值之間的誤差變小。

為了理解這個學習的過程,我們將網(wǎng)絡(luò)的實際輸出和理想輸出之間的誤差用一個“損失函數(shù)”來進行表示,它描述了模型前向輸出結(jié)果和期望輸出之間的差異。這個損失函數(shù)就像是一個二維的“山谷和丘陵”圖像,當一個網(wǎng)絡(luò)的實際輸出和期望輸出之間的誤差較大的時候,對應(yīng)著二維圖形的丘陵部分;當誤差較小時,就對應(yīng)于圖形中的山谷。當網(wǎng)絡(luò)根據(jù)指定輸出進行前向推理時,得到的輸出所對應(yīng)的誤差會對應(yīng)于二維圖像中的某個確切點,而學習的過程就是使該誤差從“丘陵”位置沿著“山坡”找到“山谷”的過程。在山谷的位置誤差和損失值是很小的。而反向傳播算法就是一種更新神經(jīng)元權(quán)重從而降低損失和誤差的方法。

從計算的角度和算法的本質(zhì)上來說,在反向傳播階段中,算法會計算每個神經(jīng)元的權(quán)重對誤差的貢獻度,然后根據(jù)誤差結(jié)果對這些權(quán)重進行修改和更新,從而提高網(wǎng)絡(luò)的性能、降低損失值并得到理想的輸出。這個計算過程是從輸出層向輸入層傳遞的,方向是從后層向前層進行的,因此人們將其稱為反向傳播。反向傳播算法會利用輸入和輸出的期望值所組成的數(shù)據(jù)集反復調(diào)整網(wǎng)絡(luò)的權(quán)重,從而得到一組可以接受的收斂的權(quán)重。

2 人腦不可能使用反向傳播機制

反向傳播算法在很多神經(jīng)科學家的眼里是一個十分簡陋和天真的機制,他們認為在大腦中絕對不會基于反向傳播機制進行學習。其中最有名的反對者是Francis Crick,他是諾貝爾獎得主,也是DNA結(jié)構(gòu)的共同發(fā)現(xiàn)者。而如今,F(xiàn)ancis則是一位神經(jīng)科學家。在1989年時,Crick寫道:“就學習過程而言,大腦不太可能使用反向傳播機制來進行學習”。

科學家們普遍認為反向傳播算法在生物學上是不可信的,這主要是基于幾個主要的原因。首先,在計算原理上來說,反向傳播算法分成了兩個明確的階段,一個前向、一個反向。但是在生物大腦的神經(jīng)網(wǎng)絡(luò)中,實現(xiàn)這樣的機制是很難的。第二個是計算神經(jīng)學家稱之為梯度/權(quán)重傳遞的問題:反向傳播算法會復制或者傳遞前向中的所有的權(quán)重信息,并根據(jù)誤差更新這些權(quán)重從而使網(wǎng)絡(luò)模型的準確度更高、性能更好。但是在生物大腦的神經(jīng)元網(wǎng)絡(luò)中,各個神經(jīng)元通常只能看到與其連接的神經(jīng)元的輸出,而看不到形成輸出的權(quán)重分量或其內(nèi)部的計算過程。Yamins說,從神經(jīng)元的角度來看,“它們可以知道自己的權(quán)重,但問題是它們還需要知道其他神經(jīng)元的權(quán)重,從生物學的角度上來看,這有點困難”。

從生物神經(jīng)學的角度來看,任何實際的生物模型和學習機制都要滿足這樣的限制:神經(jīng)元只能從鄰近的神經(jīng)元獲取信息。但顯而易見的是,反向傳播算法可能需要很遠處的神經(jīng)元的權(quán)重信息。所以“話說回來,大腦幾乎不可能利用反向傳播進行計算和學習”,Bengio說。

盡管探索的困難重重,Hinton和其他的科學家也痛快地接受了挑戰(zhàn),開始研究生物學中大腦的學習過程,努力地探索生物大腦中的“反向傳播”學習機制。賓夕法尼亞大學的計算神經(jīng)學科學家Konrad Kording說:“可以預(yù)期的是,第一篇提出大腦會執(zhí)行類似反向傳播學習的論文可能和反向傳播的論文一樣具有跨時代的意義”。慶幸的是,在過去的十余年中,隨著人工神經(jīng)網(wǎng)絡(luò)的爆發(fā),人們也開始發(fā)力研究生物大腦中的“反向傳播”學習機制。

 

3更符合生物特性的學習機制

其實在深度學習領(lǐng)域中,除了反向傳播之外還有一些更符合生物特性的學習算法存在。比如2016年,來自Google倫敦DeepMind團隊的Timothy Lillicrap和他的同事提出了反饋對齊(Feedback Alignment)算法。該算法并沒有傳遞權(quán)重,從而在生物學中也就更加的“合理”了。這個算法不會依賴于前向傳遞的權(quán)重矩陣,而是轉(zhuǎn)而使用一個隨機初始的反向傳遞矩陣。在算法中,一旦算法為一個神經(jīng)元分配了一個權(quán)重,這些權(quán)重將不會像反向傳播算法一樣來來回回微調(diào)和改變,因此不需要為反向傳播過程傳遞任何權(quán)重。

這種算法在算法的角度上來看,雖然不怎么合理,但是很令人驚訝的是,這個家伙很管用,網(wǎng)絡(luò)能夠通過這個算法學到比較合理的結(jié)果。由于前向推理的前向權(quán)重會隨著每次反向傳遞而更新,因此網(wǎng)絡(luò)仍舊會降低損失函數(shù)的梯度,但是學習和優(yōu)化的實現(xiàn)方法是有所不同的。在該算法中,前向的權(quán)重和隨機選擇的反向權(quán)重會緩慢地對齊,并最終得到正確的結(jié)果,因此該算法被稱為反饋對齊Feedback Alignment。

“事實證明,這種學習算法不是很糟糕,”Yamins說,至少對于簡單的學習任務(wù)來說是這樣的。但是對于那些復雜的問題,比如當網(wǎng)絡(luò)規(guī)模十分大、神經(jīng)元數(shù)量很多、網(wǎng)絡(luò)層數(shù)很深的情況而言,反饋對齊機制還是不如傳統(tǒng)的反向傳播有效。這是因為相對于從反向傳播得到的誤差反饋信息而言,每次傳遞前向權(quán)重的更新都不是那么的準確,所以這樣的學習機制就會需要更多的數(shù)據(jù)。

科學家們同時也在探索另一個領(lǐng)域,就是一種既能達到反向傳播的學習效果,又能滿足Hebb法則的生物合理性要求的學習算法。簡單來說就是如何讓算法只利用其相鄰神經(jīng)元的信息進行學習和權(quán)重的更新。比如Hinton就提出了一個想法:每個神經(jīng)元同時進行兩組計算。Bengio說,“這基本上就是Geoffs在2007年所說的那件事兒”。

在Hinton工作的基礎(chǔ)上,Bengio的團隊在2017年提出了一個學習方法,該方法需要一個具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),也就是說,如果神經(jīng)元A激活了神經(jīng)元B,那么神經(jīng)元B反過來也會激活神經(jīng)元A。這個網(wǎng)絡(luò)在得到一些輸入的時候,會產(chǎn)生一些“回響”(reverberating),因為每個神經(jīng)元都會立即對其相鄰的神經(jīng)元產(chǎn)生反饋。

最終,網(wǎng)絡(luò)會達到一種相對穩(wěn)定的狀態(tài),在該狀態(tài)下,網(wǎng)絡(luò)會在輸入和各神經(jīng)元之間維持一個平衡狀態(tài),并產(chǎn)生一個輸出,然而這個輸出和理想值之間存在一定的誤差。然后,算法將改變神經(jīng)元的權(quán)重,從而使網(wǎng)絡(luò)的實際輸出朝著理想輸出值靠攏。這將使得另一個信號通過網(wǎng)絡(luò)反向傳播,從而起到類似的作用。最終,網(wǎng)絡(luò)就能找到一個新的平衡點。

“算法背后的數(shù)學之美在于,如果你比較修改前和修改后的權(quán)重,你就能得到改變梯度所需的所有信息,”Bengio說。網(wǎng)絡(luò)的訓練只需要在大量帶標簽的訓練數(shù)據(jù)上重復這個“均衡傳播(Equilibrium Propagation)”的過程就能找到最終的結(jié)果。

4 預(yù)測感知

在生物學中,大腦感知過程的新研究也體現(xiàn)了神經(jīng)元只能對局部環(huán)境做出反應(yīng)的特性。Beren Milidge是Edinburgh大學的博士生,也是Sussex大學的訪問學者,他和他的同事們一直在研究這種大腦神經(jīng)元的感知機制,也就是我們所謂的預(yù)測編碼(Prediction Encoding)和反向傳播之間的關(guān)系。Milidge說:“如果在生物大腦中預(yù)測編碼機制真實存在的話,那它將為我們提供一個生物學上合理的背景支撐”。

預(yù)測編碼理論假設(shè)大腦不斷地對輸入做出預(yù)測,這個過程涉及神經(jīng)處理的層次結(jié)構(gòu)。為了產(chǎn)生一定的輸出,每一層都必須預(yù)測下一層的神經(jīng)活動。如果某個高層的神經(jīng)元認為“我需要提取出一張臉的抽象特征”,它會認為它的下一層會利用這個臉的特征進行更高層更抽象的活動。如果下一層利用了該信息,那么就印證了我提取臉的操作是正確的,反之就說明這個特征沒有意義,因為它沒有被利用。概括來說,下面一層會利用上一層所提取出的有用特征,有用的特征就像是落在視網(wǎng)膜上的光子一樣。這樣的話,預(yù)測就從高一層流向低一層了。

但是話說回來,誤差可能發(fā)生在網(wǎng)絡(luò)的每一層中,每一層的輸入和輸出之間都會存在或多或少的差異,這些差異的疊加才形成最終的誤差。最底層的網(wǎng)絡(luò)根據(jù)收到的感知信息調(diào)整權(quán)重從而最小化誤差。這種調(diào)整可能會引起剛剛更新的層和上面層之間產(chǎn)生誤差,因此較高的層必須重新調(diào)整權(quán)重來最小化預(yù)測誤差。這些誤差逐漸累積并同時向上傳遞。網(wǎng)絡(luò)產(chǎn)生誤差和權(quán)重調(diào)整貫徹始終,并前后傳遞,直到每一層的預(yù)測誤差達到最小。

Millidge已經(jīng)證明,通過適當?shù)呐渲?,這種學習方法的預(yù)測編碼網(wǎng)絡(luò)可以收斂到和反向傳播算法十分類似的權(quán)重。他說:“你可以將網(wǎng)絡(luò)訓練得非常非常接近于反向傳播的權(quán)重結(jié)果。”

但是相對于深度學習網(wǎng)絡(luò)的傳統(tǒng)的反向傳播算法來說,預(yù)測編碼網(wǎng)絡(luò)需要一次又一次地進行的迭代傳播,僅僅傳播一次是不能夠收斂的。網(wǎng)絡(luò)的學習過程是一個一個漸進修改的過程,預(yù)測編碼網(wǎng)絡(luò)通常需要幾十上百甚至千余次的傳播才能收斂。迭代也是需要時間的,因此這種迭代的機制是否具有生物合理性取決于在真實的大腦中每次傳播所需的時長。其中的關(guān)鍵點在于,生物大腦的神經(jīng)網(wǎng)絡(luò)必須快到在外部世界的輸入發(fā)生變化之前,就收斂到一個穩(wěn)定的狀態(tài)下。

Milidge說:“學習的過程肯定很快,比如說,當有一只老虎向我撲來的時候,我肯定不可能讓我的大腦反復計算、反復傳播個幾百次,然后告訴我:跑!那樣的話估計我腿還沒邁開就成了老虎的下午茶了。”盡管如此,他說:“所以在真實的大腦中,一些誤差和不準確是可以接受的,預(yù)測編碼應(yīng)該能夠很快的計算出一個可以接受的、一般來說都很管用的較優(yōu)結(jié)果”。

 

5椎體神經(jīng)元

除了上述的比較“高級”的研究之外,也有很多科學家致力于基礎(chǔ)研究,比如根據(jù)單個神經(jīng)元的特性建立起具有類似反向傳播能力的模型。在標準的神經(jīng)元中,存在著一種生理結(jié)構(gòu)叫做樹突,樹突從其他神經(jīng)元中收集信息,并且將信號傳遞到神經(jīng)元的細胞體中。所有的輸入在細胞體中被整合。這個輸入到整合的現(xiàn)象可能會導致神經(jīng)元激活,從而產(chǎn)生軸突到突觸后神經(jīng)元樹突的動作電位和生物電尖峰,當然在某種情況下也不會產(chǎn)生對應(yīng)的動作電位。

但并不是所有的神經(jīng)元都有這種結(jié)構(gòu)。特別是對于錐體神經(jīng)元來說。錐體神經(jīng)元是大腦皮層中最豐富的神經(jīng)元類型,它具有樹狀結(jié)構(gòu),并且具有兩組不同的樹突。樹突的神經(jīng)干向上伸展并開叉,分成所謂的頂端樹突;而神經(jīng)元根部向下延伸并形成基部樹突。

Kording在2001年就曾獨立提出過相應(yīng)的神經(jīng)元模型。無獨有偶,最近來自McGill大學和Quebec人工智能研究所的Blake Richards及其同事也提出了類似的神經(jīng)元模型。這些模型已經(jīng)表明神經(jīng)元可以通過同時進行正向和反向的計算來形成深度學習網(wǎng)絡(luò)的基本單元。其模型的關(guān)鍵在于從輸入神經(jīng)元的信號中分離出正向推理和反向誤差的傳播分量,這兩種誤差分量是分別由基底樹突和頂端樹突分別處理的。這兩種信號的信息可以同時在神經(jīng)元中進行編碼,經(jīng)過處理后可作為輸出發(fā)送到軸突,并轉(zhuǎn)換為生物電信號。

Richards說,在他們團隊的最新研究中,“我們已經(jīng)驗證了錐體神經(jīng)元模型的可用性,我們通過算法來模擬錐體神經(jīng)元的計算,并且驗證錐形神經(jīng)元網(wǎng)絡(luò)能夠完成各種任務(wù)的學習 。然后我們將網(wǎng)絡(luò)模型進行初步的抽象,并利用這個由錐體神經(jīng)元所組成的抽象模型進行更加復雜的任務(wù),這些復雜的任務(wù)和普通的機器學習算法和神經(jīng)網(wǎng)絡(luò)所做的任務(wù)一樣。”

 

6注意力機制

在反向傳播機制中,算法默認需要一個“老師”。具體來說,“老師”就是算法中損失值對各權(quán)重的偏導梯度,通過老師的“指導”,算法能夠據(jù)此修改權(quán)重的大小。也就是說,我們需要一個提供誤差信息的機制。但是來自荷蘭阿姆斯特丹神經(jīng)學研究所的Pieter Roelfsema說:“大腦中是沒有一個老師的,它也沒有一個器官或者機制來告訴每一個運動皮層的神經(jīng)元對應(yīng)的監(jiān)督信息,每個皮層也無從知曉自己到底是應(yīng)該激活還是靜息”。

Roelfsema認為,雖然沒有老師的信息,但是大腦可以利用注意力機制來實現(xiàn)類似的效果以解決問題。在20世紀90年代末,Roelfsema和他的同事們發(fā)現(xiàn),當一只猴子注視一個物體的時候,大腦皮層中代表該物體的神經(jīng)元就會表現(xiàn)得更加活躍。猴子大腦中的注意力信息充當了老師的角色,為皮層中的神經(jīng)元提供反饋監(jiān)督信息。“這是一個具有高度選擇性的反饋信號,”Roelfsema說,“這不是誤差信號,它只是對所有這些神經(jīng)元說:嘿伙計,我們要做一件事兒,你得出把力激活一發(fā)了。”

Roelfsema認為,當基于注意力的這種反饋信號和神經(jīng)科學領(lǐng)域中某些已有或者還未發(fā)現(xiàn)的現(xiàn)象相結(jié)合的時候,能夠在生物大腦中實現(xiàn)類似于反向傳播的學習效果。例如,劍橋大學Wolfram Schultz和其它人已經(jīng)證明,當動物執(zhí)行的某些動作產(chǎn)生比預(yù)期還好的效果的時候,生物大腦中的多巴胺系統(tǒng)就會被激活,從而產(chǎn)生正向的激勵效果。“多巴胺是一種神奇的神經(jīng)調(diào)節(jié)劑,能讓動物們產(chǎn)生愉悅和幸福的感覺, 當我們獲得了多巴胺的正向激勵時,它將遍布我們的全身,強化神經(jīng)元對于這種反應(yīng)和動作的認可”。

Roelfsema說,理論上來說,注意力反饋信號只能激活那些負責一個動作的神經(jīng)元,通過更新它們的神經(jīng)元權(quán)重來對整體的強化信號做出反應(yīng)。Roelfsema和他的同事們基于這個想法實現(xiàn)了一個深度神經(jīng)網(wǎng)絡(luò),并研究了它的數(shù)學特性。“結(jié)果是,這種機制能夠達到和反向傳播一樣的數(shù)學結(jié)果。但是從生物學的角度上來看,注意力機制的權(quán)重調(diào)整方法顯然更加合理”。

Roelfsema的團隊已經(jīng)將該工作發(fā)表到了2020年12月的NeuroIPS在線會議上。他表示,“我們可以通過這個方法訓練深度網(wǎng)絡(luò),它只比反向傳播算法慢了2至3倍。”因此,他說,“在所有符合生物合理性的學習算法中,基于注意力的學習機制已經(jīng)是其中最好的一個了”。

但是,我們的大腦真的是利用這些看似很玄學的機制來進行學習的嗎?似乎目前的研究不足以證明這一點。這些機制只是我們的一些經(jīng)驗假設(shè)而已。Bengio說:“我認為我們的研究忽略了一些東西。以我的經(jīng)驗而言,這可能是一些很小的機制和細節(jié),也許我們只需要對現(xiàn)有的方法稍作修改就能起到奇效。”

那我們?nèi)绾稳ゴ_定哪種學習算法在生物中是合理的呢?Yamins和他的斯坦福同事提出了一些建議。他們通過分析1056個深度網(wǎng)絡(luò)中的學習方法,發(fā)現(xiàn)可以通過神經(jīng)元子集隨時間的活動現(xiàn)象來確定大腦的學習方法。這種信息能夠從猴子大腦的活動記錄中獲取。Yamins說:“事實證明,如果我們能夠收集到正確的觀測數(shù)據(jù),那確定生物大腦的學習方式就變得十分簡單了。”

每每想到這些好處,計算神經(jīng)學家們都會暗自欣喜。Kording說:“大腦其實有很多種可以實現(xiàn)學習的方法,就像反向傳播一樣有效。生物的進化十分奇妙,我相信反向傳播是有效的,而進化論會推著我們朝著這個方向演進的!”

責任編輯:梁菲 來源: 今日頭條
相關(guān)推薦

2021-11-15 09:34:47

深度學習神經(jīng)網(wǎng)絡(luò)人工智能

2021-07-02 14:30:31

深度學習神經(jīng)網(wǎng)絡(luò)人工智能

2021-04-16 11:31:24

人工智能深度學習

2015-08-12 15:31:18

人工智能深度學習Fackbook

2021-02-25 15:40:21

深度學習編程人工智能

2017-03-01 19:58:00

深度學習TensorFlow

2019-12-17 09:05:47

深度學習編程人工智能

2021-11-23 09:34:50

深度學習編程人工智能

2017-07-13 10:03:43

優(yōu)化算法Adam深度學習

2020-09-18 17:52:10

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)圖形

2019-10-15 05:15:00

深度學習人工智能AI

2022-03-09 09:56:14

深度學習算法人工智能

2021-11-10 15:03:17

深度學習算法人工智能

2017-01-24 11:51:14

騰訊云深度學習

2023-02-25 21:52:20

算法技術(shù)

2023-08-17 14:22:17

深度學習機器學習

2024-03-22 13:05:55

模型訓練

2023-05-11 07:43:36

機器學習深度學習算法

2017-05-17 15:09:06

深度學習人工智能

2021-03-08 11:28:59

人工智能深度學習Python
點贊
收藏

51CTO技術(shù)棧公眾號