自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

人工智能 深度學(xué)習(xí)
眾所周知,神經(jīng)網(wǎng)絡(luò)非常強(qiáng)大,可以將其用于幾乎任何統(tǒng)計(jì)學(xué)習(xí)問(wèn)題,而且效果很好。 但是您是否考慮過(guò)為什么會(huì)這樣? 為什么在大多數(shù)情況下此方法比許多其他算法更強(qiáng)大?

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

普適逼近定理

眾所周知,神經(jīng)網(wǎng)絡(luò)非常強(qiáng)大,可以將其用于幾乎任何統(tǒng)計(jì)學(xué)習(xí)問(wèn)題,而且效果很好。 但是您是否考慮過(guò)為什么會(huì)這樣? 為什么在大多數(shù)情況下此方法比許多其他算法更強(qiáng)大?

與機(jī)器學(xué)習(xí)一樣,這有一個(gè)精確的數(shù)學(xué)原因。 簡(jiǎn)而言之,神經(jīng)網(wǎng)絡(luò)模型描述的功能集非常大。 但是描述一組功能意味著什么? 一組功能如何大? 這些概念乍一看似乎很難理解,但是可以正確定義它們,從而闡明為什么某些算法比其他算法更好的原因。

機(jī)器學(xué)習(xí)作為函數(shù)逼近

讓我們以一個(gè)抽象的觀點(diǎn)來(lái)闡述什么是機(jī)器學(xué)習(xí)問(wèn)題。 假設(shè)我們有數(shù)據(jù)集

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

其中x⁽ᵏ⁾是數(shù)據(jù)點(diǎn),y是與數(shù)據(jù)點(diǎn)相關(guān)的觀測(cè)值。 觀測(cè)值y⁽ᵏ⁾可以是實(shí)數(shù),甚至可以是概率分布(在分類的情況下)。 任務(wù)只是找到一個(gè)函數(shù)f(x),對(duì)于該函數(shù)f(x⁽ᵏ⁾)近似為y⁽ᵏ⁾。

為此,我們預(yù)先修復(fù)了參數(shù)化的功能系列,然后選擇最適合的參數(shù)配置。 例如,線性回歸使用函數(shù)族

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

作為參數(shù)的函數(shù)族,以a和b為參數(shù)。

如果我們假設(shè)有一個(gè)真實(shí)的基礎(chǔ)函數(shù)g(x)描述了x⁽ᵏ⁾和y⁽ᵏ⁾之間的關(guān)系,則該問(wèn)題可以表述為函數(shù)逼近問(wèn)題。 這將我們帶入了美麗的近似理論技術(shù)領(lǐng)域。

近似理論入門(mén)

可能您一生中多次遇到指數(shù)函數(shù)。 它的定義是

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

其中e是著名的歐拉數(shù)。 這是一個(gè)超越函數(shù),基本上意味著您無(wú)法通過(guò)有限的多次加法和乘法來(lái)計(jì)算其值。 但是,當(dāng)您將其放入計(jì)算器時(shí),您仍然會(huì)獲得價(jià)值。 該值僅是一個(gè)近似值,盡管對(duì)于我們的目的通常是足夠的。 實(shí)際上,我們有

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

這是一個(gè)多項(xiàng)式,因此可以顯式計(jì)算其值。 n越大,近似值越接近真實(shí)值。

逼近理論的中心問(wèn)題是為這些問(wèn)題提供數(shù)學(xué)框架。 如果您有任何函數(shù)g(x)以及從計(jì)算方面更易于處理的函數(shù)族,那么您的目標(biāo)就是找到一個(gè)與g足夠接近的"簡(jiǎn)單"函數(shù)。 本質(zhì)上,近似理論搜索三個(gè)核心問(wèn)題的答案。

  • 什么是"足夠接近"?
  • 我可以(或應(yīng)該)使用哪個(gè)函數(shù)系列來(lái)近似?
  • 從給定的近似函數(shù)族中,哪一個(gè)確切的函數(shù)最適合?

別擔(dān)心這些聽(tīng)起來(lái)是否有點(diǎn)抽象,因?yàn)榻酉聛?lái)我們將研究神經(jīng)網(wǎng)絡(luò)的特殊情況。

神經(jīng)網(wǎng)絡(luò)作為函數(shù)逼近器

因此,讓我們重申這個(gè)問(wèn)題。 我們有一個(gè)函數(shù)g(x),它描述數(shù)據(jù)和觀測(cè)值之間的關(guān)系。 這不是確切已知的,僅對(duì)于某些值

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

其中g(shù)(x⁽ᵏ⁾)=y⁽ᵏ⁾。 我們的工作是找到一個(gè)f(x)

  • 從數(shù)據(jù)中概括知識(shí)
  • 并且在計(jì)算上可行。

如果我們假設(shè)所有數(shù)據(jù)點(diǎn)都在子集X中,則

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

持有,我們想要一個(gè)數(shù)量最高準(zhǔn)則的函數(shù)

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

盡可能小。 您可以通過(guò)繪制這些函數(shù),為圖形包圍的區(qū)域著色并計(jì)算沿y軸的最大擴(kuò)展區(qū)域來(lái)想象這個(gè)數(shù)量。

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

即使我們不能評(píng)估g(x)的任意值,我們也應(yīng)該始終在更廣泛的意義上接近它,而不是要求f(x)僅適合已知數(shù)據(jù)點(diǎn)xₖ。

因此,給出了問(wèn)題。 問(wèn)題是,我們應(yīng)該使用哪一組函數(shù)進(jìn)行近似?

具有單個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)

從數(shù)學(xué)上講,具有單個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)定義為

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

其中φ是非線性函數(shù)(稱為激活函數(shù)),例如S型函數(shù)

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

值x對(duì)應(yīng)于數(shù)據(jù),而wᵢ,bᵢ和vᵢ是參數(shù)。 是功能家族

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

足以近似任何合理的功能? 答案是肯定的!

普適逼近定理

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?
  • > The universal approximation theorem in its full glory :) Source: Cybenko, G. (1989) "Approximations by superpositions of sigmoidal functions", Mathematics of Control, Signals, and Systems, 2(4), 303–314.

1989年的一個(gè)著名結(jié)果被稱為通用逼近定理,該結(jié)論指出,只要激活函數(shù)像S形函數(shù)且被逼近的函數(shù)是連續(xù)的,具有單個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)就可以根據(jù)需要精確地對(duì)其進(jìn)行逼近。 (或使用機(jī)器學(xué)習(xí)術(shù)語(yǔ)進(jìn)行學(xué)習(xí)。)

如果確切的定理似乎很困難,請(qǐng)不要擔(dān)心,我將詳細(xì)解釋整個(gè)過(guò)程。 (實(shí)際上,我故意跳過(guò)了稠密之類的概念,以使說(shuō)明更清晰,盡管不夠精確。)

步驟1。 假設(shè)要學(xué)習(xí)的函數(shù)是g(x),它是連續(xù)的。 讓我們固定一個(gè)小的ε并在函數(shù)周圍繪制一個(gè)ε寬的條紋。 ε越小,結(jié)果越好。

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

第二步。 (最困難的部分。)找到表格的功能

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

完全在條紋內(nèi) 該定理保證了這樣的F(x)的存在,因此這個(gè)函數(shù)族被稱為通用逼近器。 這是神經(jīng)網(wǎng)絡(luò)的真棒,賦予它們真正的力量。

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

但是,有幾個(gè)警告。 例如,該定理沒(méi)有說(shuō)出N,也就是隱藏層中神經(jīng)元的數(shù)量。 對(duì)于較小的ε,它可能非常大,從計(jì)算角度來(lái)看這是不利的。 我們希望盡快計(jì)算預(yù)測(cè),而計(jì)算100億項(xiàng)之和絕對(duì)不好玩。

第二個(gè)問(wèn)題是,即使該定理保證了一個(gè)良好的逼近函數(shù)的存在,也沒(méi)有告訴我們?nèi)绾握业剿?盡管這可能令人驚訝,但這在數(shù)學(xué)中是非常典型的。 我們有非常強(qiáng)大的工具來(lái)推斷某些對(duì)象的存在,而又不能顯式構(gòu)造它們。 (有一所稱為建構(gòu)主義的數(shù)學(xué)學(xué)校,它拒絕純粹的存在性證明,例如通用逼近定理的原始證明。但是,這個(gè)問(wèn)題根深蒂固。如果不接受非構(gòu)造性證明,我們甚至無(wú)法談?wù)? 無(wú)限集上的函數(shù)。)

但是,最大的問(wèn)題是,在實(shí)踐中,我們永遠(yuǎn)不會(huì)完全了解底層功能,而只會(huì)知道所觀察到的內(nèi)容:

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

有無(wú)數(shù)種可能的配置可以很好地適合我們的數(shù)據(jù)。 它們中的大多數(shù)可怕地概括為新數(shù)據(jù)。 您肯定知道這種現(xiàn)象:這是可怕的過(guò)度擬合。

擁有權(quán)利的同時(shí)也被賦予了重大的責(zé)任

所以,這是東西。 如果您有N個(gè)觀測(cè)值,則可以找到一個(gè)非常適合您的觀測(cè)值的N-1階多項(xiàng)式。 這沒(méi)什么大不了的,您甚至可以使用Lagrange插值明確地寫(xiě)下該多項(xiàng)式。 但是,它不會(huì)推廣到任何新數(shù)據(jù),實(shí)際上會(huì)很糟糕。 下圖展示了當(dāng)我們嘗試將大多項(xiàng)式擬合到一個(gè)小的數(shù)據(jù)集時(shí)會(huì)發(fā)生什么。

 

為什么神經(jīng)網(wǎng)絡(luò)如此強(qiáng)大?

神經(jīng)網(wǎng)絡(luò)也有同樣的現(xiàn)象。 這是一個(gè)巨大的問(wèn)題,而通用逼近定理給我們關(guān)于如何克服這一問(wèn)題的絕對(duì)零提示。

通常,功能族的表現(xiàn)力越高,就越容易過(guò)度擬合。 擁有權(quán)利的同時(shí)也被賦予了重大的責(zé)任。 這稱為偏差方差折衷。 對(duì)于神經(jīng)網(wǎng)絡(luò),從權(quán)重的L1正則化到下降層,有很多方法可以緩解這種情況。 但是,由于神經(jīng)網(wǎng)絡(luò)具有如此高的表現(xiàn)力,因此這個(gè)問(wèn)題始終在后臺(tái)隱約可見(jiàn),需要不斷關(guān)注。

超越萬(wàn)能逼近定理

正如我已經(jīng)提到的,該定理沒(méi)有提供任何工具來(lái)為我們的神經(jīng)網(wǎng)絡(luò)找到參數(shù)配置。 從實(shí)際的角度來(lái)看,這幾乎與通用逼近性質(zhì)一樣重要。 幾十年來(lái),神經(jīng)網(wǎng)絡(luò)一直不受歡迎,因?yàn)槿狈σ环N計(jì)算有效的方法來(lái)使它們適合數(shù)據(jù)。 有兩項(xiàng)重要的進(jìn)步,使它們的使用成為可能:反向傳播和通用GPU-s。 有了這兩個(gè)工具,訓(xùn)練龐大的神經(jīng)網(wǎng)絡(luò)變得輕而易舉。 您可以使用筆記本訓(xùn)練最先進(jìn)的模型,甚至不費(fèi)吹灰之力。 自從通用逼近定理以來(lái),我們已經(jīng)走到現(xiàn)在!

通常,這是標(biāo)準(zhǔn)深度學(xué)習(xí)課程的起點(diǎn)。 由于其數(shù)學(xué)上的復(fù)雜性,因此未涵蓋神經(jīng)網(wǎng)絡(luò)的理論基礎(chǔ)。 但是,通用逼近定理(及其證明中使用的工具)對(duì)神經(jīng)網(wǎng)絡(luò)為何如此強(qiáng)大提供了非常深入的了解,甚至為工程新穎的體系結(jié)構(gòu)奠定了基礎(chǔ)。 畢竟,誰(shuí)說(shuō)過(guò)我們只能將S型和線性函數(shù)結(jié)合起來(lái)?

責(zé)任編輯:未麗燕 來(lái)源: 今日頭條
相關(guān)推薦

2010-03-10 18:42:30

Python性能

2020-07-22 18:11:07

神經(jīng)網(wǎng)絡(luò)函數(shù)代碼

2024-11-04 09:26:42

RESTJavaAPI

2018-04-24 15:53:52

2018-07-03 16:10:04

神經(jīng)網(wǎng)絡(luò)生物神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)

2021-10-26 09:00:00

圖形機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2020-09-16 10:02:08

神經(jīng)網(wǎng)絡(luò)樹(shù)模型

2025-02-19 15:12:17

神經(jīng)網(wǎng)絡(luò)PyTorch大模型

2012-04-09 13:35:10

Instagram

2023-07-21 11:51:25

2019-07-02 13:37:23

神經(jīng)網(wǎng)絡(luò)運(yùn)算Python

2017-07-26 10:21:46

DockerLinux容器

2022-06-01 23:27:38

區(qū)塊鏈加密貨幣數(shù)字資產(chǎn)

2020-06-02 19:14:59

Kubernetes容器開(kāi)發(fā)

2020-11-05 10:50:09

物聯(lián)網(wǎng)數(shù)據(jù)技術(shù)

2017-09-10 07:07:32

神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)集可視化

2025-02-25 14:13:31

2025-02-20 08:10:00

神經(jīng)網(wǎng)絡(luò)模型AI

2020-08-03 07:54:33

神經(jīng)網(wǎng)絡(luò)通用近似定理機(jī)器學(xué)習(xí)

2022-11-28 09:00:03

編程bug開(kāi)發(fā)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)