自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

機(jī)器學(xué)習(xí)的工作原理

人工智能 機(jī)器學(xué)習(xí)
機(jī)器學(xué)習(xí)是一種數(shù)據(jù)分析技術(shù),可在數(shù)據(jù)集上構(gòu)建預(yù)測(cè)模型,以提供有用的答案,這些答案可用于制定重要決策。 它利用統(tǒng)計(jì)概念和數(shù)學(xué)方法通過python和R等編碼語言處理大數(shù)據(jù)。有多種機(jī)器學(xué)習(xí)技術(shù)。 但是,本文將介紹回歸和分類。

 機(jī)器學(xué)習(xí)的工作原理

 

機(jī)器學(xué)習(xí)是一種數(shù)據(jù)分析技術(shù),可在數(shù)據(jù)集上構(gòu)建預(yù)測(cè)模型,以提供有用的答案,這些答案可用于制定重要決策。 它利用統(tǒng)計(jì)概念和數(shù)學(xué)方法通過python和R等編碼語言處理大數(shù)據(jù)。有多種機(jī)器學(xué)習(xí)技術(shù)。 但是,本文將介紹回歸和分類。

回歸

回歸用于預(yù)測(cè)連續(xù)的數(shù)值數(shù)據(jù)。 它是一種廣泛使用的統(tǒng)計(jì)概念,可以手動(dòng)應(yīng)用于具有兩個(gè)變量和少量元素的小型數(shù)據(jù)集。 當(dāng)處理具有多個(gè)變量和元素負(fù)載的大型數(shù)據(jù)集時(shí),通過將包含數(shù)據(jù)集的文件上載到編碼平臺(tái)并運(yùn)行一堆代碼來完成回歸。

有多種不同的回歸技術(shù),例如線性回歸,多項(xiàng)式回歸,多元線性回歸和多元多項(xiàng)式回歸。 它們的應(yīng)用根據(jù)要使用多少個(gè)自變量來預(yù)測(cè)因變量而有所不同。 以下是一些與回歸相關(guān)的有用術(shù)語:

回歸方程

回歸方程是使用自變量對(duì)因變量進(jìn)行預(yù)測(cè)的方程。 可以表示為y = mx + b,y = ax ^ n + bx ^ n-1 +…+ c,y = ax + bx2 +…+ c或y = ax ^ n + bx ^ n-1 +…+ c分別表示線性回歸,多項(xiàng)式回歸,多元線性回歸和多元多項(xiàng)式回歸。

 

機(jī)器學(xué)習(xí)的工作原理

 

回歸系數(shù)

回歸系數(shù)是應(yīng)用于線性回歸或多元線性回歸的常數(shù)值。 它可能對(duì)因變量產(chǎn)生增加或減少的影響。 讓我們舉一個(gè)例子,其中使用年齡和身高(cm)等變量來確定體重(磅)。

對(duì)于線性回歸,可以將其表示為體重= 5 *年齡+30。此等式表明,年齡每增加1年,體重就會(huì)增加5磅。

對(duì)于多元線性回歸,它可以表示為體重= 4 年齡+ 2.5 高度+30。該方程式意味著,假設(shè)年齡為零,則體重每增加1厘米將增加2.5幅度。 身高為零,體重將增加4磅,年齡會(huì)增加一年。

Y軸截距

如果將回歸系數(shù)或x設(shè)置為零,則這可以描述為因變量的值。 可以表示為y = c。 這也是回歸線切割y軸的點(diǎn)。

培訓(xùn)模型與測(cè)試模型

數(shù)據(jù)集分為兩組:訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集。 將數(shù)據(jù)集分成幾組后,使用訓(xùn)練數(shù)據(jù)集生成回歸方程。 開發(fā)完成后,將回歸方程應(yīng)用于測(cè)試數(shù)據(jù)集以創(chuàng)建預(yù)測(cè)。

可以將預(yù)測(cè)值與實(shí)際值進(jìn)行比較以測(cè)試準(zhǔn)確性。 評(píng)估預(yù)測(cè)的指標(biāo)如下:

測(cè)定系數(shù)

r平方的確定系數(shù)是一種有用的機(jī)制,用于解釋回歸方程對(duì)進(jìn)行預(yù)測(cè)的準(zhǔn)確性。 通過將預(yù)測(cè)值與實(shí)際值進(jìn)行比較來完成此操作。 它提供了一個(gè)值,該值表示自變量解釋了因變量的比例。 為了提高r平方得分,可以從一種回歸樣式切換到另一種回歸樣式。

相關(guān)系數(shù)

這是另一個(gè)非常有用的值,它描述了實(shí)際結(jié)果和預(yù)測(cè)結(jié)果中的值之間的關(guān)系。 范圍是-1到1。如果相關(guān)系數(shù)為負(fù),則預(yù)測(cè)結(jié)果會(huì)隨著實(shí)際結(jié)果的減少而增加,反之亦然。 如果為正,則預(yù)測(cè)結(jié)果隨實(shí)際結(jié)果的增加而增加。 值越接近| 1 |,關(guān)系就越完美。

均方根誤差

均方誤差是每個(gè)數(shù)據(jù)點(diǎn)的預(yù)測(cè)值和實(shí)際值之間的總平方差的平均值。 該值是數(shù)據(jù)集平均距離回歸線的接近程度的度量。 該值的平方根稱為均方根誤差。 目的是使均方根誤差接近0,以獲得最佳擬合。

 

機(jī)器學(xué)習(xí)的工作原理

 

分類

分類是另一種很棒的機(jī)器學(xué)習(xí)算法,可用于預(yù)測(cè)分類數(shù)據(jù)集。 自變量可以是連續(xù)的或分類的,而因變量是分類的。 分類可以用來建立提供是(1)或否(0)答案的模型,也可以用來建立多個(gè)類別(0,1,2 ….),具體取決于用戶的議程。 像回歸一樣,它利用訓(xùn)練和測(cè)試數(shù)據(jù)集。

使用我預(yù)測(cè)貸款申請(qǐng)狀態(tài)的前一個(gè)項(xiàng)目的結(jié)果,下面將解釋分類方法,例如K最近鄰居和決策樹分類器及其度量標(biāo)準(zhǔn):

K最近鄰居

這是一種分類方法,使用最接近該特定數(shù)據(jù)點(diǎn)的數(shù)據(jù)點(diǎn)來預(yù)測(cè)該數(shù)據(jù)點(diǎn)應(yīng)屬于的類別。 通過評(píng)估每個(gè)數(shù)據(jù)點(diǎn)的獨(dú)立變量和因變量,并將它們與k個(gè)最接近的變量進(jìn)行比較,它使用訓(xùn)練數(shù)據(jù)集創(chuàng)建了一個(gè)預(yù)測(cè)模型。 該模型用于預(yù)測(cè)測(cè)試數(shù)據(jù)集中每個(gè)數(shù)據(jù)點(diǎn)的類別,并測(cè)量其準(zhǔn)確性。

通過將k設(shè)置為1來進(jìn)行多次迭代,測(cè)量其精度并增加k值直至達(dá)到峰值精度。

 

機(jī)器學(xué)習(xí)的工作原理

 

通過將預(yù)測(cè)模型與訓(xùn)練模型擬合,并使用該預(yù)測(cè)模型對(duì)測(cè)試數(shù)據(jù)集中的數(shù)據(jù)點(diǎn)進(jìn)行分類,可以使用此k-max值預(yù)測(cè)模型進(jìn)一步分析數(shù)據(jù)集。

決策樹分類器

決策樹分類器使用與K最近鄰居不同的方法。 首先查看訓(xùn)練模型中的所有數(shù)據(jù)點(diǎn)并評(píng)估一個(gè)自變量,然后根據(jù)該變量的值為其分配是(1)或否(0)標(biāo)簽。 然后,它基于先前一個(gè)或多個(gè)自變量的輸出進(jìn)行其他自變量,以得出Y或N的最終標(biāo)簽作為預(yù)測(cè)結(jié)果。

 

機(jī)器學(xué)習(xí)的工作原理

 

從決策樹分類器訓(xùn)練數(shù)據(jù)集生成的預(yù)測(cè)模型可用于預(yù)測(cè)測(cè)試數(shù)據(jù)集中的數(shù)據(jù)點(diǎn)的類別。

混淆矩陣

混淆矩陣是用于分類的表,用于顯示正確預(yù)測(cè)了多少個(gè)值以及錯(cuò)誤預(yù)測(cè)了多少個(gè)值。 錯(cuò)誤有兩種類型:I型錯(cuò)誤和II型錯(cuò)誤。 I類錯(cuò)誤被認(rèn)為是誤報(bào),即歸為正的負(fù)值。 II型錯(cuò)誤是假負(fù)數(shù),即被歸類為負(fù)數(shù)的正值。

 

機(jī)器學(xué)習(xí)的工作原理

 

可以使用度量標(biāo)準(zhǔn)(例如精度,召回率和準(zhǔn)確性)使用混淆矩陣來計(jì)算分類性能。

精確

精度用于查看實(shí)際記錄的正值中有多少是正值。 其公式為TP /(TP + FP)。 對(duì)于上面的混淆矩陣,精度為:119 /(119 + 54)= 0.69

召回

召回率也稱為真實(shí)陽性率。 它計(jì)算真實(shí)正值在實(shí)際正值中的比例。 其公式為TP /(TP + FN)。 回憶上面的混淆矩陣是119 /(119 + 10)= 0.92

真實(shí)負(fù)利率

真實(shí)負(fù)比率衡量真實(shí)負(fù)數(shù)在實(shí)際負(fù)數(shù)中的比例。 其公式為TN /(TN + FP)。 對(duì)于上面的混淆矩陣,它是9 /(9 + 54)= 0.15。

準(zhǔn)確性

準(zhǔn)確度就是所有準(zhǔn)確記錄的值的總和除以所有記錄值的總和。 其公式為(TP + TN)/(TP + TN + FP + FN)。 上面的混淆矩陣的精度為(119 + 9)/(119 + 9 +54 + 10)= 0.67。

F-1分?jǐn)?shù)

F-1分?jǐn)?shù)類似于r平方分?jǐn)?shù)。 它衡量自變量對(duì)自變量的解釋程度。 通過將預(yù)測(cè)值與實(shí)際值進(jìn)行比較來完成此操作。 它越接近1,則預(yù)測(cè)模型越強(qiáng)。 可以針對(duì)不同分類方法的預(yù)測(cè)模型測(cè)量F-1分?jǐn)?shù),以決定使用哪種分類方法。

結(jié)論

機(jī)器學(xué)習(xí)是一個(gè)能夠指導(dǎo)我們?cè)谌粘;顒?dòng)中做出有效決策的領(lǐng)域。 這將在將來幫助人類和公司做出明智的決策時(shí)非常有幫助。 例如,分類可以告訴我們是否要投資某個(gè)業(yè)務(wù),而回歸可以告訴我們?nèi)绻顿Y該業(yè)務(wù)我們可能賺多少錢。

 

責(zé)任編輯:華軒 來源: 今日頭條
相關(guān)推薦

2020-06-19 07:59:35

人工智能

2018-09-18 15:57:44

機(jī)器學(xué)習(xí)ML神經(jīng)網(wǎng)絡(luò)

2020-05-06 09:10:08

機(jī)器學(xué)習(xí)無監(jiān)督機(jī)器學(xué)習(xí)有監(jiān)督機(jī)器學(xué)習(xí)

2021-04-30 13:00:43

人工智能

2020-12-09 15:05:40

大數(shù)據(jù)學(xué)習(xí)Zookeeper

2021-03-18 11:45:49

人工智能機(jī)器學(xué)習(xí)算法

2024-04-12 14:04:17

機(jī)器學(xué)習(xí)DNN

2020-05-19 14:00:09

人工智能機(jī)器學(xué)習(xí)AI

2019-08-20 14:01:22

HTTPSSSL協(xié)議

2009-07-06 12:32:26

JSP引擎

2010-08-02 16:14:54

2013-06-04 13:53:30

OSPF路由協(xié)議OSPF協(xié)議OSPF

2013-09-22 10:34:08

碼農(nóng)機(jī)器學(xué)習(xí)算法

2019-03-26 11:15:34

AI機(jī)器學(xué)習(xí)人工智能

2019-01-02 07:43:51

機(jī)器學(xué)習(xí)人工智能學(xué)歷

2009-08-27 17:13:20

DHCP的工作原理

2010-05-05 16:47:57

Unix Tripwi

2021-01-10 15:28:23

數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)AI

2024-03-18 00:00:04

AIKubernetes機(jī)器學(xué)習(xí)

2009-06-18 13:31:03

Spring工作原理
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)