自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

天才還是白癡:有史以來最具爭議的神經(jīng)網(wǎng)絡(luò)

人工智能 深度學(xué)習(xí)
有人認為,極限學(xué)習(xí)機是有史以來最聰明的神經(jīng)網(wǎng)絡(luò)發(fā)明之一,以至于甚至召開了專門討論ELM神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)的會議。

極限學(xué)習(xí)機

有人認為,極限學(xué)習(xí)機是有史以來最聰明的神經(jīng)網(wǎng)絡(luò)發(fā)明之一,以至于甚至召開了專門討論ELM神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)的會議。ELM的支持者認為,它可以以指數(shù)級的更快的訓(xùn)練時間執(zhí)行標準任務(wù),而很少有訓(xùn)練實例。另一方面,除了它在機器學(xué)習(xí)社區(qū)中并不大的事實之外,它還受到深度學(xué)習(xí)專家的廣泛批評,其中包括Yann LeCun,他們認為它的宣傳和信譽遠遠超出其應(yīng)有的程度。

通常,人們似乎認為這是一個有趣的概念。

ELM體系結(jié)構(gòu)由兩層組成:第一個是隨機初始化和固定的,而第二個是可訓(xùn)練的。本質(zhì)上,網(wǎng)絡(luò)將數(shù)據(jù)隨機投影到新空間中并執(zhí)行多元回歸(當(dāng)然,然后將其傳遞給輸出激活函數(shù))。隨機投影需要一種降維(或放大)方法,該方法將隨機矩陣乘以輸入-盡管這個想法聽起來很奇怪,但從戰(zhàn)略分布中隨機抽取實際上可以很好地工作(我們將在以后的直觀類比中看到)。它會施加某種隨機失真,這種失真會以良好的方式(如果正確完成的話)會產(chǎn)生噪聲,并使網(wǎng)絡(luò)的其余部分能夠適應(yīng),從而為學(xué)習(xí)機會打開了新的大門。

實際上,正是由于這種隨機性,Extreme Learning Machines才被證明具有隱藏層中具有相對較小節(jié)點的通用近似定理冪。

 

實際上,在1980年代和1990年代,以神經(jīng)網(wǎng)絡(luò)發(fā)展領(lǐng)域的名字就已經(jīng)探索了隨機投影的想法,這就是對ELM并不是什么新鮮事物的一種批評。只是舊研究以新名稱打包。許多其他體系結(jié)構(gòu)(例如回聲狀態(tài)機和液體狀態(tài)機)也利用隨機跳過連接和其他隨機性來源。

但是,ELM與其他神經(jīng)網(wǎng)絡(luò)架構(gòu)之間的最大區(qū)別可能是它不使用反向傳播。取而代之的是,由于網(wǎng)絡(luò)的可訓(xùn)練部分只是簡單的多元回歸,因此以大致相同的方式在回歸中擬合系數(shù)來訓(xùn)練參數(shù)。這代表了人們認為神經(jīng)網(wǎng)絡(luò)訓(xùn)練方式的根本轉(zhuǎn)變。

自從基本人工神經(jīng)網(wǎng)絡(luò)出現(xiàn)以來,幾乎所有開發(fā)出的神經(jīng)網(wǎng)絡(luò)都通過在整個網(wǎng)絡(luò)中前后反射信息信號,使用迭代更新(或根據(jù)需要將其稱為"調(diào)整")進行了優(yōu)化。由于這種方法已經(jīng)存在了很長時間,因此必須假定已經(jīng)嘗試并測試了該方法為最佳方法,但是研究人員承認,標準反向傳播存在許多問題,例如訓(xùn)練起來很慢或陷入極小的局部極小值現(xiàn)象。

另一方面,ELM使用數(shù)學(xué)上涉及更多的公式來設(shè)置權(quán)重,而無需太深入地研究數(shù)學(xué),可以想到使用隨機層來補償更多計算上昂貴的細節(jié),否則它將被替換。從技術(shù)上講,如果有幫助,那么非常成功的Dropout層就是一種隨機投影。

因為ELM同時使用隨機性和無反向傳播算法,所以它們的訓(xùn)練速度比標準神經(jīng)網(wǎng)絡(luò)快得多。

另一方面,他們是否表現(xiàn)更好是另一個問題。

有人可能會提出這樣一種觀點,即ELM比標準神經(jīng)網(wǎng)絡(luò)(盡管兩者都相距甚遠)更能反映人類的學(xué)習(xí)方式,因為它僅需幾個示例就可以非??焖俚亟鉀Q更簡單的任務(wù),但是迭代神經(jīng)網(wǎng)絡(luò)需要貫穿其中至少,成千上萬的樣本可以泛化并表現(xiàn)良好。與機器相比,人類可能有其弱點,但是他們在示例學(xué)習(xí)比率(示例是他們所接受的培訓(xùn)示例的數(shù)量)方面的巨大優(yōu)勢才使我們真正變得聰明。

極限學(xué)習(xí)機的概念非常簡單-如此簡單,以至于有人會稱其為愚蠢的。偉大的計算機科學(xué)家和深度學(xué)習(xí)先驅(qū)Yann LeCun宣稱,"隨機連接第一層幾乎是您可以做的最愚蠢的事情",在此論點之后,他列舉了更多的開發(fā)方法來非線性地變換向量的維數(shù),例如作為SVM中使用的內(nèi)核方法,通過使用反向傳播進行定位進一步得到了加強。

LeCun說,從本質(zhì)上講,ELM本質(zhì)上是一個SVM,具有更差的轉(zhuǎn)換內(nèi)核。使用SVM可以更好地建模ELM能夠解決的有限范圍的問題。唯一的反駁是使用"隨機內(nèi)核"而不是專用內(nèi)核的計算效率,因為SVM是眾所周知的高功率模型。ELM可能帶來的性能降低是否值得,這是另一個討論。

> One way to compare ELMs and SVMs.

然而,無論是否像ELM一樣,根據(jù)經(jīng)驗,在簡單的神經(jīng)網(wǎng)絡(luò)中使用隨機投影或過濾器以及其他模型都已證明在MNIST等各種(現(xiàn)在被認為是"簡單")標準訓(xùn)練任務(wù)中表現(xiàn)出色。盡管這些性能不是一流的,但經(jīng)過如此嚴格審查并且其概念幾乎被認為是荒唐可笑的體系結(jié)構(gòu),可以通過最新的神經(jīng)網(wǎng)絡(luò)在排行榜上獨占edge頭–此外,它具有更輕量級的體系結(jié)構(gòu)和較小的計算量–至少是令人感興趣的。

為什么使用固定的隨機連接有效?

這是一百萬美元的問題:很明顯,如果ELM的性能與普通的反向傳播神經(jīng)網(wǎng)絡(luò)一樣好(甚至更好),那么ELM中具有隨機連接的某些功能就可以正常工作。雖然它的數(shù)學(xué)是不直觀的,但原始的《極限學(xué)習(xí)機器》論文的作者光斌煌,舉例說明了這個概念(針對語言,簡潔性和深度學(xué)習(xí)的相似性進行了編輯):

您要用石頭填滿一個湖,直到用石頭而不是水填滿一個水平表面,然后您才能看到空湖的底部,這是一條曲線(代表數(shù)據(jù)的函數(shù))。工程師仔細計算了湖泊的大小,填滿湖泊的石頭的大小,以及在優(yōu)化任務(wù)中起作用的眾多其他小因素。(優(yōu)化適合該功能的許多參數(shù)。)

> A bad but acceptable job of filling stones into the lake.

另一方面,農(nóng)村農(nóng)民炸毀附近的山,開始扔掉或推下掉進湖里的巖石。當(dāng)農(nóng)村農(nóng)民撿起一塊石頭(隱藏層節(jié)點)時,他不需要知道湖的大小或石頭的大小,他只是隨意地扔石頭并將石頭散布開來。如果某個區(qū)域的巖石開始堆積在地表上方,則農(nóng)夫會用錘子將其砸碎(β參數(shù)-各種規(guī)則化處理),以平整地表。

盡管工程師仍在計算巖石的高度和體積以及湖泊的形狀,但農(nóng)夫已經(jīng)填滿了湖泊。對于農(nóng)夫來說,扔多少塊石頭都沒關(guān)系:他可以更快地完成工作。

盡管這種類比在不同場景的直接應(yīng)用中存在一些問題,但這是對ELM的本質(zhì)以及隨機性在模型中扮演的角色的直觀解釋。ELM的本質(zhì)在于,天真并不總是一件壞事:簡單的解決方案可能能夠更好地解決不太復(fù)雜的問題。

關(guān)鍵點

  • 極限學(xué)習(xí)機使用固定的隨機第一層和可訓(xùn)練的第二層。這本質(zhì)上是隨機投影,然后是多元回歸。
  • ·支持者說,ELM能夠在簡單的場景(如MNIST)中以非常少的示例很快地學(xué)習(xí),其優(yōu)點是易于編程,并且無需選擇諸如體系結(jié)構(gòu),優(yōu)化器和損耗之類的參數(shù)。另一方面,反對者認為,SVM在這些情況下會更好,ELM不適合解決更復(fù)雜的問題,并且它只是對一個非常古老的想法進行了重新命名。
  • ELM通常在復(fù)雜任務(wù)上表現(xiàn)不佳,但事實證明它可以在較簡單的任務(wù)上表現(xiàn)良好,這是探索更多輕量級體系結(jié)構(gòu),非反向傳播模型擬合和隨機投影世界的一個很好的理由。至少,極限學(xué)習(xí)機(或您想在其下打上這個名字的任何名稱)是每個深度學(xué)習(xí)愛好者都應(yīng)該知道的有趣的想法。

您對ELM有何看法? 

 

責(zé)任編輯:趙寧寧 來源: 今日頭條
相關(guān)推薦

2020-12-14 11:40:52

技術(shù)資訊

2009-07-28 09:28:32

OperaJavaScript

2013-07-11 08:51:06

編程語言

2018-07-04 11:35:00

App StoreiOSFacebook

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2020-09-29 07:24:30

智能

2015-07-16 15:45:56

2020-07-01 09:58:42

Java 編程語言開發(fā)

2025-04-27 05:00:00

2009-03-18 08:53:05

Windows 7微軟穩(wěn)定性

2009-04-22 15:12:17

埃里森EllisonOracle

2025-01-15 10:02:09

APIVueDOM

2025-02-25 14:13:31

2020-08-06 10:11:13

神經(jīng)網(wǎng)絡(luò)機器學(xué)習(xí)算法

2013-02-26 17:20:40

2022-06-15 09:15:35

?CloudflarHTTPS DDoS攻擊

2009-05-14 09:01:01

Google AppsSaaSGoogle

2019-12-27 09:42:55

網(wǎng)絡(luò)安全數(shù)據(jù)庫軟件

2018-12-28 10:43:59

5G公式4G

2019-08-04 20:13:55

點贊
收藏

51CTO技術(shù)棧公眾號