自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

人工智能 深度學習
通用近似定理很好地解釋了為什么神經(jīng)網(wǎng)絡能工作以及為什么它們經(jīng)常不起作用。

 [[422682]]

此前,圖靈獎得主、深度學習先驅 Yann LeCun 的一條推文引來眾多網(wǎng)友的討論。

在該推文中,LeCun 表示:「深度學習并不像你想象的那么令人印象深刻,因為它僅僅是通過曲線擬合產(chǎn)生的插值結果。但在高維空間中,不存在插值這樣的情況。在高維空間中,一切都是外推?!?/p>

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

而 LeCun 轉發(fā)的內(nèi)容來自哈佛認知科學家 Steven Pinker 的一條推文,Pinker 表示:「 通用近似定理很好地解釋了為什么神經(jīng)網(wǎng)絡能工作以及為什么它們經(jīng)常不起作用。只有理解了 Andre Ye 的通用近似定理,你才能理解神經(jīng)網(wǎng)絡?!?/p>

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

Pinker 所提到的 Andre Ye,正是接下來要介紹《You Don’t Understand Neural Networks Until You Understand the Universal Approximation Theorem》文章的作者。雖然該文章是去年的,但在理解神經(jīng)網(wǎng)絡方面起到非常重要的作用。

在人工神經(jīng)網(wǎng)絡的數(shù)學理論中, 通用近似定理(或稱萬能近似定理)指出人工神經(jīng)網(wǎng)絡近似任意函數(shù)的能力。通常此定理所指的神經(jīng)網(wǎng)絡為前饋神經(jīng)網(wǎng)絡,并且被近似的目標函數(shù)通常為輸入輸出都在歐幾里得空間的連續(xù)函數(shù)。但亦有研究將此定理擴展至其他類型的神經(jīng)網(wǎng)絡,如卷積神經(jīng)網(wǎng)絡、放射狀基底函數(shù)網(wǎng)絡、或其他特殊神經(jīng)網(wǎng)絡。

此定理意味著神經(jīng)網(wǎng)絡可以用來近似任意的復雜函數(shù),并且可以達到任意近似精準度。但它并沒有告訴我們?nèi)绾芜x擇神經(jīng)網(wǎng)絡參數(shù)(權重、神經(jīng)元數(shù)量、神經(jīng)層層數(shù)等等)來達到我們想近似的目標函數(shù)。

1989 年,George Cybenko 最早提出并證明了單一隱藏層、任意寬度、并使用 S 函數(shù)作為激勵函數(shù)的前饋神經(jīng)網(wǎng)絡的通用近似定理。兩年后 1991 年,Kurt Hornik 研究發(fā)現(xiàn),激活函數(shù)的選擇不是關鍵,前饋神經(jīng)網(wǎng)絡的多層神經(jīng)層及多神經(jīng)元架構才是使神經(jīng)網(wǎng)絡有成為通用逼近器的關鍵

最重要的是,該定理解釋了為什么神經(jīng)網(wǎng)絡似乎表現(xiàn)得如此聰明。理解它是發(fā)展對神經(jīng)網(wǎng)絡深刻理解的關鍵一步。

更深層次的探索

緊湊(有限、封閉)集合上的任何連續(xù)函數(shù)都可以用分段函數(shù)逼近。以 - 3 和 3 之間的正弦波為例,它可以用三個函數(shù)來近似——兩個二次函數(shù)和一個線性函數(shù),如下圖所示。

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

然而,Cybenko 對這個分段函數(shù)描述更為具體,因為它可以是恒定,本質上通過 step 來擬合函數(shù)。有了足夠多的恒定域 (step),我們就可以在給定的范圍內(nèi)合理地估計函數(shù)。

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

基于這種近似,我們可以將神經(jīng)元當做 step 來構建網(wǎng)絡。利用權值和偏差作為「門」來確定哪個輸入下降,哪個神經(jīng)元應該被激活,一個有足夠數(shù)量神經(jīng)元的神經(jīng)網(wǎng)絡可以簡單地將一個函數(shù)劃分為幾個恒定區(qū)域來估計。

對于落在神經(jīng)元下降部分的輸入信號,通過將權重放大到較大的值,最終的值將接近 1(當使用 sigmoid 函數(shù)計算時)。如果它不屬于這個部分,將權重移向負無窮將產(chǎn)生接近于 0 的最終結果。使用 sigmoid 函數(shù)作為某種處理器來確定神經(jīng)元的存在程度,只要有大量的神經(jīng)元,任何函數(shù)都可以近乎完美地近似。在多維空間中,Cybenko 推廣了這一思想,每個神經(jīng)元在多維函數(shù)中控制空間的超立方體。

通用近似定理的關鍵在于,它不是在輸入和輸出之間建立復雜的數(shù)學關系,而是使用簡單的線性操作將復雜的函數(shù)分割成許多小的、不那么復雜的部分,每個部分由一個神經(jīng)元處理。

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

自 Cybenko 的初始證明以后,學界已經(jīng)形成了許多新的改進,例如針對不同的激活函數(shù)(例如 ReLU),或者具有不同的架構(循環(huán)網(wǎng)絡、卷積等)測試通用近似定理。

不管怎樣,所有這些探索都圍繞著一個想法——神經(jīng)網(wǎng)絡在神經(jīng)元數(shù)量中找到優(yōu)勢。每個神經(jīng)元監(jiān)視特征空間的一個模式或區(qū)域,其大小由網(wǎng)絡中神經(jīng)元的數(shù)量決定。神經(jīng)元越少,每個神經(jīng)元需要監(jiān)視的空間就越多,因此近似能力就會下降。但是,隨著神經(jīng)元增多,無論激活函數(shù)是什么,任何函數(shù)都可以用許多小片段拼接在一起。

泛化和外推

有人可能指出,通用近似定理雖然簡單,但有點過于簡單(至少在概念上)。神經(jīng)網(wǎng)絡可以分辨數(shù)字、生成音樂等,并且通常表現(xiàn)得很智能,但實際上只是一個復雜的逼近器。

神經(jīng)網(wǎng)絡旨在對給定的數(shù)據(jù)點,能夠建模出復雜的數(shù)學函數(shù)。神經(jīng)網(wǎng)絡是個很好的逼近器,但是,如果輸入超出了訓練范圍,它們就失去了作用。這類似于有限泰勒級數(shù)近似,在一定范圍內(nèi)可以擬合正弦波,但超出范圍就失效了。

在理解通用近似定理之前,你可能都不會理解神經(jīng)網(wǎng)絡

外推,或者說在給定的訓練范圍之外做出合理預測的能力,這并不是神經(jīng)網(wǎng)絡設計的目的。從通用近似定理,我們了解到神經(jīng)網(wǎng)絡并不是真正的智能,而是隱藏在多維度偽裝下的估計器,在二維或三維中看起來很普通。

定理的實際意義

當然,通用逼近定理假設可以繼續(xù)向無窮大添加神經(jīng)元,這在實踐中是不可行的。此外,使用神經(jīng)網(wǎng)絡近乎無限的參數(shù)組合來尋找性能最佳的組合也是不切實際的。然而,該定理還假設只有一個隱藏層,并且隨著添加更多隱藏層,復雜性和通用逼近的潛力呈指數(shù)增長。

取而代之的是,機器學習工程師依據(jù)直覺和經(jīng)驗決定了如何構造適合給定問題的神經(jīng)網(wǎng)絡架構,以便它能夠很好地逼近多維空間,知道這樣一個網(wǎng)絡的存在,但也要權衡計算性能。

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2020-08-03 07:54:33

神經(jīng)網(wǎng)絡通用近似定理機器學習

2022-03-27 22:07:35

元宇宙虛擬人IBM

2015-03-16 11:33:16

程序員代碼bug

2017-02-08 19:49:03

內(nèi)存SSDDRAM

2021-09-24 09:45:27

Python神經(jīng)網(wǎng)絡人工智能

2020-09-27 06:50:56

Java互聯(lián)網(wǎng)注解

2020-05-27 11:10:54

KerasLSTM神經(jīng)網(wǎng)絡

2010-08-20 14:25:47

錯誤消息路由器

2022-07-27 09:53:06

神經(jīng)網(wǎng)絡結構

2021-09-06 06:31:40

理解動態(tài)規(guī)劃

2018-09-09 23:58:25

可視化神經(jīng)網(wǎng)絡模型

2020-04-17 11:26:07

5G消息運營商飛信

2019-12-26 09:56:34

Java多線程內(nèi)部鎖

2023-05-16 07:15:11

架構模型對象

2021-07-07 06:54:37

網(wǎng)頁Selenium瀏覽器

2020-09-17 12:40:54

神經(jīng)網(wǎng)絡CNN機器學習

2017-07-18 11:40:44

深度神經(jīng)網(wǎng)絡數(shù)學基礎拓撲

2019-12-26 09:15:44

網(wǎng)絡IOLinux

2017-05-05 08:57:06

卷積神經(jīng)網(wǎng)絡機制

2017-05-03 08:52:13

卷積神經(jīng)網(wǎng)絡神經(jīng)網(wǎng)絡非線性激活函數(shù)
點贊
收藏

51CTO技術棧公眾號