自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

人工智能 機(jī)器學(xué)習(xí)
為了解決該問(wèn)題,我們必須首先了解性能不佳的原因。假設(shè)您已經(jīng)建立了一個(gè)面部識(shí)別模型,并且現(xiàn)在使用驗(yàn)證集來(lái)調(diào)整測(cè)試集上的實(shí)驗(yàn)參數(shù)。 可悲的是,您的實(shí)驗(yàn)得出的測(cè)試結(jié)果令人失望。

 介紹

假設(shè)您已經(jīng)建立了一個(gè)面部識(shí)別模型,并且現(xiàn)在使用驗(yàn)證集來(lái)調(diào)整測(cè)試集上的實(shí)驗(yàn)參數(shù)。 可悲的是,您的實(shí)驗(yàn)得出的測(cè)試結(jié)果令人失望。

 

[[330663]]

我們?nèi)绾沃泪槍?duì)此特定問(wèn)題的優(yōu)秀的補(bǔ)救方法是什么?

首先了解假設(shè)提升問(wèn)題,然后看看是否可以從衍生自該算法的AdaBoost算法的結(jié)果中提取實(shí)用原理,從而解決該問(wèn)題。

線性預(yù)測(cè)器

線性回歸

線性回歸建模解釋變量或自變量與標(biāo)量響應(yīng)或因變量之間的關(guān)系。

使用線性預(yù)測(cè)函數(shù)對(duì)關(guān)系進(jìn)行建模。

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> Linear Regression

回歸的損失函數(shù)需要定義由于我們的預(yù)測(cè)與標(biāo)簽或目標(biāo)的真實(shí)結(jié)果之間的差異而應(yīng)受到的懲罰。

均方誤差使用平方損失函數(shù)來(lái)最小化此差異。

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> Mean Squared Error

其中n是預(yù)測(cè)數(shù),Y是被預(yù)測(cè)變量的觀測(cè)值,而Ŷ是預(yù)測(cè)值。

一些學(xué)習(xí)任務(wù)需要非線性預(yù)測(cè)器,例如多項(xiàng)式預(yù)測(cè)器。

 

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

 

> Linear Regression for Polynomial Regression Tasks

通過(guò)使用最小二乘算法找到系數(shù)的優(yōu)秀矢量,可以將這個(gè)問(wèn)題簡(jiǎn)化為線性回歸問(wèn)題,該算法最小化了曲線上各點(diǎn)的偏移的平方和("殘差")。

邏輯回歸

在邏輯回歸中,我們學(xué)習(xí)對(duì)間隔[0,1]上存在的某個(gè)類別或事件的概率進(jìn)行建模。

邏輯函數(shù)是一個(gè)S型函數(shù),它接受任何實(shí)際輸入,并輸出一個(gè)介于0和1之間的值。

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> Sigmoid function

如果此處的學(xué)習(xí)失敗,我們可以嘗試增強(qiáng)以解決偏差-偏差權(quán)衡問(wèn)題。

假設(shè)提振問(wèn)題

"一組弱學(xué)習(xí)者可以創(chuàng)造一個(gè)單一的強(qiáng)學(xué)習(xí)者嗎?" —邁克爾·科恩斯(Michael Kerns)和萊斯利·加布里埃爾·萊斯(Leslie Gabriel Valiant)

Boosting使用線性預(yù)測(cè)變量的泛化來(lái)解決以下問(wèn)題:

偏差-方差權(quán)衡

讓我們定義一些術(shù)語(yǔ):

  • 近似誤差是我們先驗(yàn)知識(shí)的誤差,或者是我們的算法以何種概率輸出最佳答案。
  • 估計(jì)誤差是我們的算法將預(yù)測(cè)看不見(jiàn)數(shù)據(jù)的結(jié)果的誤差。

候選模型越復(fù)雜,近似誤差越小,但是估計(jì)誤差越大。

通過(guò)使學(xué)習(xí)者從可能具有較大近似誤差的簡(jiǎn)單模型開始,發(fā)展為使近似誤差和估計(jì)誤差均最小的模型,Boosting使學(xué)習(xí)者可以控制此折衷。

學(xué)習(xí)的計(jì)算復(fù)雜性

提升可以提高弱勢(shì)學(xué)習(xí)者或簡(jiǎn)單算法的準(zhǔn)確性,而簡(jiǎn)單算法的性能要比隨機(jī)猜測(cè)好一點(diǎn)。 這個(gè)想法是試圖將弱學(xué)習(xí)者轉(zhuǎn)變?yōu)閺?qiáng)學(xué)習(xí)者,以便產(chǎn)生一個(gè)與難以學(xué)習(xí)和計(jì)算復(fù)雜的學(xué)習(xí)者相當(dāng)?shù)母咝ьA(yù)測(cè)器。

自適應(yīng)提升

AdaBoost(自適應(yīng)增強(qiáng))是一種基于理論假設(shè)增強(qiáng)問(wèn)題的算法,該算法將假設(shè)的線性組合與檢測(cè)圖像中人臉的單個(gè)假設(shè)組成。

AdaBoost的偽代碼,

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> AdaBoost pseudocode

對(duì)于指定的回合數(shù),AdaBoost算法分配權(quán)重,該權(quán)重與每個(gè)假設(shè)的誤差成反比。 然后在假設(shè)正確的情況下更新此權(quán)重,這將獲得較低的概率權(quán)重,而與假設(shè)不正確的示例相反。 這是針對(duì)多個(gè)回合執(zhí)行的,因此,在每個(gè)后續(xù)回合中,弱學(xué)習(xí)者會(huì)將注意力集中在有問(wèn)題的樣本上。 然后,這會(huì)基于所有弱假設(shè)的加權(quán)總和產(chǎn)生一個(gè)"強(qiáng)分類器"。

其中T是訓(xùn)練回合的數(shù)量,h是弱學(xué)習(xí)者的運(yùn)行時(shí)間,AdaBoost算法的運(yùn)行時(shí)間有效地為O(Th)。

AdaBoost用于人臉識(shí)別

讓我們回到我們的示例,在此示例中,我們要構(gòu)建一個(gè)人臉識(shí)別模型,該模型采用24 x 24像素的圖像并使用該信息來(lái)確定圖像是否描繪了人臉。

我們將使用代表這四個(gè)基本假設(shè)的線性函數(shù),

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> Base hypotheses for face recognition

每個(gè)假設(shè)的功能形式包括:

  • 軸對(duì)齊矩形R,最多24個(gè)軸對(duì)齊矩形
  • A,B,C或D型

并將圖像映射到標(biāo)量值。

為了計(jì)算我們的學(xué)習(xí)函數(shù),我們計(jì)算位于紅色矩形內(nèi)的像素的灰度值之和,然后從藍(lán)色矩形內(nèi)的像素的灰度值之和中減去該值。

我們可以通過(guò)首先在每個(gè)圖像上計(jì)算函數(shù)的所有可能輸出,然后應(yīng)用AdaBoost算法來(lái)實(shí)現(xiàn)弱學(xué)習(xí)者。 這導(dǎo)致強(qiáng)度在臉部區(qū)域中增長(zhǎng),這可能導(dǎo)致更好的預(yù)測(cè)。

模型選擇與驗(yàn)證

我們已經(jīng)到了最終解決方案可以選擇幾種模型的地步。

解決我們特定問(wèn)題的優(yōu)秀模型是什么?

我們可以將樣本劃分為訓(xùn)練集和測(cè)試集,以便在近似誤差和估計(jì)誤差之間找到平衡。 在訓(xùn)練模型時(shí),我們將使用訓(xùn)練集,并且將使用獨(dú)立測(cè)試集來(lái)驗(yàn)證模型,以獲取經(jīng)驗(yàn)誤差。 這將使我們有直覺(jué)來(lái)了解我們是過(guò)度擬合,過(guò)于緊密地?cái)M合我們的訓(xùn)練樣本,還是欠擬合而不充分地?cái)M合我們的訓(xùn)練樣本。

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> Validation for model selection on polynomial regressors

近似誤差和估計(jì)誤差到底取決于什么?

首先定義一些術(shù)語(yǔ):

  • 讓我們的假設(shè)類別代表我們可以為機(jī)器學(xué)習(xí)算法選擇的所有可能假設(shè)的集合。
  • 讓我們將分布定義為未知函數(shù),該函數(shù)確定從樣本空間進(jìn)行任何單獨(dú)觀察的真實(shí)概率。

我們的近似誤差取決于分布和假設(shè)類別。 增加假設(shè)類別或使用其他特征表示可能會(huì)為我們提供一些替代知識(shí),這些知識(shí)可能會(huì)改善近似誤差。

我們的估計(jì)誤差取決于訓(xùn)練樣本量。 為了改善估計(jì)誤差,我們必須有足夠數(shù)量的訓(xùn)練樣本。 較大的假設(shè)類別通常會(huì)增加估計(jì)誤差,因?yàn)檫@會(huì)使找到良好的預(yù)測(cè)變量更加困難。 AdaBoost算法的結(jié)果是產(chǎn)生一個(gè)"強(qiáng)分類器",該分類器基于所有弱假設(shè)的加權(quán)和,從本質(zhì)上減少了假設(shè)類別。

結(jié)論

從線性回歸到自適應(yīng)提升向我們展示了一個(gè)示例,說(shuō)明如何解決學(xué)習(xí)成績(jī)差的問(wèn)題是模棱兩可的。

模型選擇,驗(yàn)證和學(xué)習(xí)曲線是我們可以用來(lái)幫助我們了解學(xué)習(xí)失敗的原因以便找到補(bǔ)救措施的工具。

很好地總結(jié)了以下原則,這些原則直接來(lái)自對(duì)機(jī)器學(xué)習(xí)的理解:從理論到算法:

1.如果學(xué)習(xí)涉及參數(shù)調(diào)整,請(qǐng)繪制模型選擇曲線以確保適當(dāng)調(diào)整了參數(shù)。

 

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

 

> Model-selection curve

2.如果訓(xùn)練誤差過(guò)大,請(qǐng)考慮擴(kuò)大假設(shè)類別,完全更改它,或更改數(shù)據(jù)的特征表示。

3.如果訓(xùn)練誤差較小,則繪制學(xué)習(xí)曲線并嘗試從中推斷出問(wèn)題是估計(jì)誤差還是近似誤差。

 

如果機(jī)器學(xué)習(xí)失敗該怎么辦:計(jì)算學(xué)習(xí)理論

 

> Learning curves : estimation error vs approximation error

4.如果近似誤差似乎足夠小,請(qǐng)嘗試獲取更多數(shù)據(jù)。 如果這不可能,請(qǐng)考慮降低假設(shè)類別的復(fù)雜性。

5.如果近似誤差似乎也很大,請(qǐng)嘗試完全更改假設(shè)類別或數(shù)據(jù)的特征表示。

責(zé)任編輯:華軒 來(lái)源: 今日頭條
相關(guān)推薦

2022-04-22 10:30:07

框架JavaScript前端

2022-07-10 14:59:57

機(jī)器學(xué)習(xí)人工智能預(yù)測(cè)模型

2019-12-10 16:37:23

Windows 10U盤電腦

2017-12-08 11:14:21

2018-03-21 11:14:22

云計(jì)算云計(jì)算提供商數(shù)據(jù)

2022-05-06 09:48:56

機(jī)器學(xué)習(xí)樣本不平衡

2018-10-30 10:49:53

物聯(lián)網(wǎng)IoT智能設(shè)備

2017-06-30 13:23:59

SaaS供應(yīng)商破產(chǎn)

2015-10-10 10:42:03

企業(yè)級(jí)云服務(wù)AWS

2013-02-28 11:00:51

IE10瀏覽器

2015-10-28 17:09:13

技術(shù)創(chuàng)業(yè)

2016-10-09 23:12:59

2009-11-30 13:27:21

2009-01-19 09:19:58

局域網(wǎng)遠(yuǎn)程控制服務(wù)器

2010-05-04 09:53:33

云計(jì)算

2019-01-04 10:20:48

桌面圖標(biāo) 圖標(biāo)閃爍Windows 10

2021-11-16 07:02:05

函數(shù)Python返回值

2011-06-30 17:58:30

網(wǎng)站被K

2023-02-07 13:24:42

應(yīng)用學(xué)習(xí)

2021-01-23 23:18:21

Windows 10Windows微軟
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)