自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

幾種特征選擇方法的比較,孰好孰壞?

人工智能 機(jī)器學(xué)習(xí)
在本文中,重點介紹特征選擇方法基于評估機(jī)器學(xué)習(xí)模型的特征重要性在各種不可解釋(黑盒)及可解釋機(jī)器學(xué)習(xí)方法上的表現(xiàn)。比較了CART、Optimal Trees、XGBoost和SHAP正確識別相關(guān)特征子集的能力。

[[403820]]

本文轉(zhuǎn)載自微信公眾號「數(shù)據(jù)STUDIO」,作者云朵君。轉(zhuǎn)載本文請聯(lián)系數(shù)據(jù)STUDIO公眾號。

在本文中,重點介紹特征選擇方法基于評估機(jī)器學(xué)習(xí)模型的特征重要性在各種不可解釋(黑盒)及可解釋機(jī)器學(xué)習(xí)方法上的表現(xiàn)。比較了CART、Optimal Trees、XGBoost和SHAP正確識別相關(guān)特征子集的能力。

無論使用原生特征重要性方法還是SHAP、 XGBoost都不能清晰地區(qū)分相關(guān)和不相關(guān)的特征。而可解釋方法(interpretable methods)能夠正確有效地識別無關(guān)特征,從而為特征選擇提供了顯著的良好的性能。

特征選擇

在物聯(lián)網(wǎng)的時代,每天都在以越來越快的速度創(chuàng)建和收集數(shù)據(jù),這導(dǎo)致與每個數(shù)據(jù)點相關(guān)的數(shù)據(jù)集具有成千上萬的特征。雖然眾多機(jī)器學(xué)習(xí)和人工智方法能都擁有強(qiáng)大的預(yù)測能力,但在這種高維數(shù)據(jù)集中,模型在理解各種特征的相對質(zhì)量時,也會變得很復(fù)雜。事實上,在訓(xùn)練模型時并不需要用到所有的高維數(shù)據(jù)集,而運用其中一小部分特征來訓(xùn)練模型也可以得到大部分或所有的預(yù)測性能。

特征選擇(feature selection)從所有的特征中,選擇出意義的,對模型有幫助的特征,以避免必須將所有特征都導(dǎo)入模型中去訓(xùn)練的情況。

我們一般有四種方法可以選擇:過濾法、嵌入法、包裝法和降維法。其中包裝法和嵌入法都是依賴于依賴于算法自身的選擇,即基于評估機(jī)器學(xué)習(xí)模型的特征重要性,根據(jù)重要性分?jǐn)?shù)了解哪些特征與做出預(yù)測最相關(guān)的方法。這也是最常用的特征選擇方法之一。

特征選擇的重要性并不需要過多描述,因此由模型計算出的重要性分?jǐn)?shù)能否反映實際情況是至關(guān)重要的。錯誤地高估不相關(guān)特征的重要性會導(dǎo)致錯誤的發(fā)現(xiàn),而低估相關(guān)特征的重要性會導(dǎo)致我們丟棄重要的特征,從而導(dǎo)致模型性能較差。

此外,像XGBoost這樣的黑盒模型提供了更加先進(jìn)的預(yù)測性能,但人類并不容易理解其內(nèi)在原理,因需要依賴于特征重要性分?jǐn)?shù)或SHAP之類的可解釋性方法來研究他們對特征選擇的行為。

基于評估器計算特征重要性原理

前面已經(jīng)說過最常用的特征選擇方法之一是基于評估機(jī)器學(xué)習(xí)模型的特征重要性,而評估機(jī)器學(xué)習(xí)模型試圖量化每個特征的相對重要性,以預(yù)測目標(biāo)變量。特征重要性的計算方式是通過度量模型中每個特性的使用所帶來的性能增量改進(jìn)來,并在整個模型中總結(jié)這些信息。我們可以使用它來識別那些被認(rèn)為很少或不重要的特性,并將它們從模型中刪除。

不足之處:任何特征選擇的方法只有在它也是準(zhǔn)確的時候才有用。

CART樹特征選擇的優(yōu)缺點

基于樹的模型是機(jī)器學(xué)習(xí)中最常用的方法之一,因為它們的能力和可解釋性。CART等單樹模型是完全可解釋的,因為可以很容易地通過觀察最終決策樹中的分割來遵循它們的預(yù)測邏輯。

然而,CART是使用每次形成一個分割的樹的貪婪啟發(fā)式方法進(jìn)行訓(xùn)練模型的,這種方法會產(chǎn)生許多缺點。

  • 首先,這可能導(dǎo)致樹遠(yuǎn)不是全局最優(yōu)的,因為貪婪啟發(fā)式中任何給定點上的最佳分割,這已被證明在樹的未來生長環(huán)境中并不是最佳的選擇。
  • 其次,由于CART算法采用每一步都窮盡搜索所有特征來拆分選擇方法,所以傾向于選擇拆分點較多的特征。由于特征的選擇很可能會偏向那些具有大量唯一值的特征,而貪婪算法可能導(dǎo)致在樹根附近的被用于分割數(shù)據(jù)的特征選擇錯誤,而這些特征往往是最重要的。

基于樹的集成學(xué)習(xí)器

基于樹的集成方法,如隨機(jī)森林和梯度增強(qiáng)(如XGBoost),通過集成大量單樹模型的預(yù)測來改進(jìn)CART的性能。這樣確實帶來了更為先進(jìn)的性能,但犧牲了模型的可解釋性,因為人類幾乎不可能理解成百上千的樹模型之間的交互及其他行為。因此,通常需要依賴可變重要性方法來理解和解釋這些模型的工作機(jī)制。

這些模型在計算特征重要性時,可能會存在一定的敏感性,尤其對具有很多潛在分裂點的特征,及特征中包含一些易形成偏倚問題的數(shù)據(jù)。

SHAP

SHAP是一種最新的方法,它統(tǒng)一了許多早期的方法,旨在解決集成樹模型中的偏倚問題,并使用博弈論方法來理解和解釋每個特性是如何驅(qū)動最終預(yù)測的。SHAP因為它的魯棒性和解決偏差問題,迅速被廣泛用于解釋黑箱模型和進(jìn)行特征選擇。

最優(yōu)樹

如前所述,與集成方法相比,CART的預(yù)測性能較差,但集成方法被迫犧牲單個決策樹的可解釋性來實現(xiàn)較好的預(yù)測性能,這使得從業(yè)者不得不在性能和可解釋性之間進(jìn)行選擇。

最優(yōu)樹利用混合整數(shù)優(yōu)化在單步構(gòu)造全局最優(yōu)決策樹。所得到的模型不僅保持了單個決策樹的可解釋性,又能達(dá)到黑盒模型一樣的高性能。

由于該方法考慮同時優(yōu)化樹中的所有分割,而不是貪婪地一個一個地優(yōu)化,我們可以預(yù)期分割選擇,不像CART那樣容易受到同樣的偏倚問題的影響。

對比結(jié)果

SHAP和XGBoost一直低估關(guān)鍵特征的重要性,而將不相關(guān)的特征賦予顯著的重要性,并且在較高的噪聲下無法完全區(qū)分相關(guān)與不相關(guān)的特征。顯然這些不能被用于特征選擇或解釋,否則這將會發(fā)生嚴(yán)重的后果。

另一方面,可解釋的單樹模型在識別與預(yù)測無關(guān)的特征方面優(yōu)勢突出,在需要相對較少的訓(xùn)練數(shù)據(jù)的情況下將其重要性降至零。

相對于CART樹,最優(yōu)樹注重全局優(yōu)化,因而其識別無關(guān)特征的速度更快以及對特征選擇的偏倚問題的敏感性更低。

可解釋的單樹模型在消除無關(guān)特征方面是完全透明和有效的;在使用最優(yōu)樹時,通常以很少甚至沒有性能代價就能完成消除無關(guān)特征。

參考:

Comparing interpretability and explainability for feature selection

 

Interpretable AI Cambridge, MA 02142,Jack Dunn etc.

 

責(zé)任編輯:武曉燕 來源: 數(shù)據(jù)STUDIO
相關(guān)推薦

2016-12-01 18:52:42

開源閉源

2009-12-14 14:12:07

Linux文件系統(tǒng)

2024-02-19 18:06:04

PythonJuliaRust

2023-06-04 13:51:08

2022-04-18 16:15:31

UbuntuArchLinux

2022-10-12 07:11:38

哈希加密系統(tǒng)

2011-03-04 09:17:40

GNOMEUnityUbuntu

2016-05-05 09:56:59

Angular 2React

2012-05-29 13:10:50

HTML5

2012-05-03 11:22:46

2016-12-06 08:30:00

DevOps編程開發(fā)

2015-11-09 14:38:32

2016-09-22 09:12:26

云存儲實體存儲

2019-03-07 16:05:59

webJettyTomcat

2020-05-06 11:04:52

Elasticsear架構(gòu)運維

2023-03-23 08:00:00

人工智能ChatGPTGoogle Bar

2012-08-10 10:12:24

傳統(tǒng)網(wǎng)絡(luò)云計算

2011-11-28 09:31:23

NIST云計算云服務(wù)

2019-09-09 09:15:00

2015-03-18 10:04:05

VoLTEVoWiFi基于IP傳輸語音
點贊
收藏

51CTO技術(shù)棧公眾號