自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何解決機器學習中的數據不平衡問題?

人工智能 機器學習
數據不平衡問題主要存在于有監(jiān)督機器學習任務中。當遇到不平衡數據時,以總體分類準確率為學習目標的傳統(tǒng)分類算法會過多地關注多數類,從而使得少數類樣本的分類性能下降。絕大多數常見的機器學習算法對于不平衡數據集都不能很好地工作。本文介紹幾種有效的解決數據不平衡情況下有效訓練有監(jiān)督算法的思路。

[[194310]]

在機器學習任務中,我們經常會遇到這種困擾:數據不平衡問題。

數據不平衡問題主要存在于有監(jiān)督機器學習任務中。當遇到不平衡數據時,以總體分類準確率為學習目標的傳統(tǒng)分類算法會過多地關注多數類,從而使得少數類樣本的分類性能下降。絕大多數常見的機器學習算法對于不平衡數據集都不能很好地工作。

本文介紹幾種有效的解決數據不平衡情況下有效訓練有監(jiān)督算法的思路:

1、重新采樣訓練集

可以使用不同的數據集。有兩種方法使不平衡的數據集來建立一個平衡的數據集——欠采樣和過采樣。

1.1. 欠采樣

欠采樣是通過減少豐富類的大小來平衡數據集,當數據量足夠時就該使用此方法。通過保存所有稀有類樣本,并在豐富類別中隨機選擇與稀有類別樣本相等數量的樣本,可以檢索平衡的新數據集以進一步建模。

1.2. 過采樣

相反,當數據量不足時就應該使用過采樣,它嘗試通過增加稀有樣本的數量來平衡數據集,而不是去除豐富類別的樣本的數量。通過使用重復、自舉或合成少數類過采樣等方法(SMOTE)來生成新的稀有樣品。

注意到欠采樣和過采樣這兩種方法相比而言,都沒有絕對的優(yōu)勢。這兩種方法的應用取決于它適用的用例和數據集本身。另外將過采樣和欠采樣結合起來使用也是成功的。

2、使用K-fold交叉驗證

值得注意的是,使用過采樣方法來解決不平衡問題時應適當地應用交叉驗證。這是因為過采樣會觀察到罕見的樣本,并根據分布函數應用自舉生成新的隨機數據,如果在過采樣之后應用交叉驗證,那么我們所做的就是將我們的模型過擬合于一個特定的人工引導結果。這就是為什么在過度采樣數據之前應該始終進行交叉驗證,就像實現特征選擇一樣。只有重復采樣數據可以將隨機性引入到數據集中,以確保不會出現過擬合問題。

K-fold交叉驗證就是把原始數據隨機分成K個部分,在這K個部分中選擇一個作為測試數據,剩余的K-1個作為訓練數據。交叉驗證的過程實際上是將實驗重復做K次,每次實驗都從K個部分中選擇一個不同的部分作為測試數據,剩余的數據作為訓練數據進行實驗,***把得到的K個實驗結果平均。

3、轉化為一分類問題

對于二分類問題,如果正負樣本分布比例極不平衡,我們可以換一個完全不同的角度來看待問題:把它看做一分類(One Class Learning)或異常檢測(Novelty Detection)問題。這類方法的重點不在于捕捉類間的差別,而是為其中一類進行建模,經典的工作包括One-class SVM等,如下圖所示:  

 

 

One Class SVM 是指你的訓練數據只有一類正(或者負)樣本的數據, 而沒有另外的一類。在這時,你需要學習的實際上你訓練數據的邊界。而這時不能使用***化軟邊緣了,因為你沒有兩類的數據。 所以呢,在這邊文章中,“Estimating the support of a high-dimensional distribution”, Sch?lkopf 假設***的邊緣要遠離特征空間中的原點。左邊是在原始空間中的邊界,可以看到有很多的邊界都符合要求,但是比較靠譜的是找一個比較緊的邊界(紅色的)。這個目標轉換到特征空間就是找一個離原點比較遠的邊界,同樣是紅色的直線。當然這些約束條件都是人為加上去的,你可以按照你自己的需要采取相應的約束條件。比如讓你data 的中心離原點最遠。

說明:對于正負樣本極不均勻的問題,使用異常檢測,或者一分類問題,也是一個思路。

4、組合不同的重采樣數據集

成功泛化模型的最簡單方法是使用更多的數據,問題是像邏輯回歸或隨機森林這樣開箱即用的分類器,傾向于通過舍去稀有類來泛化模型。一個簡單的***實踐是建立n個模型,每個模型使用稀有類別的所有樣本和豐富類別的n個不同樣本。假設想要合并10個模型,那么將保留例如1000例稀有類別,并隨機抽取10000例豐富類別。然后,只需將10000個案例分成10塊,并訓練10個不同的模型。 

 

如果擁有大量數據,這種方法是簡單并且是可橫向擴展的,這是因為可以在不同的集群節(jié)點上訓練和運行模型。集合模型也趨于泛化,這使得該方法易于處理。

5、用不同比例重新采樣

方法4 可以很好地將稀有類別和豐富類別之間的比例進行微調,***的比例在很大程度上取決于所使用的數據和模型。但是,不是在整體中以相同的比例訓練所有模型,所以值得嘗試合并不同的比例。如果10個模型被訓練,有一個模型比例為1:1(稀有:豐富)和另一個1:3甚至是2:1的模型都是有意義的。一個類別獲得的權重依賴于使用的模型。 

 

6、多模型Bagging

方法5 雖然能夠選出***的樣本數據比例。但是它的魯棒性不能夠保證:它的魯棒性取決于測試集樣本的選取。

為了解決上述方法的缺陷,增加模型魯棒性。為此,我本人在 隨機森林算法 思想的啟發(fā)下,想出了在上述方法的基礎上,將不同比例下訓練出來的模型進行 多模型Bagging 操作,具體的步驟如下:

1). 對兩類樣本選取 N 組不同比例的數據進行訓練并測試,得出模型預測的準確率:

P={ Pi | i=1,2,…N }

2). 對上述各模型的準確率進行歸一化處理,得到新的權重分布:

Ω={ ωi | i=1,2,…N }

其中: 

 

3). 按權重分布 Ω 組合多個模型,作為最終的訓練器:

● 對于分類任務: 

 

● 對于回歸任務: 

 

 

 

7、集群豐富類

Sergey Quora提出了一種優(yōu)雅的方法,他建議不要依賴隨機樣本來覆蓋訓練樣本的種類,而是將r個群體中豐富類別進行聚類,其中r為r中的例數。每個組只保留集群中心(medoid)。然后,基于稀有類和僅保留的類別對該模型進行訓練。

7.1. 對豐富類進行聚類操作

首先,我們可以對具有大量樣本的豐富類進行聚類操作。假設我們使用的方法是 K-Means聚類算法 。此時,我們可以選擇K值為稀有類中的數據樣本的個數,并將聚類后的中心點以及相應的聚類中心當做富類樣本的代表樣例,類標與富類類標一致。 

 

 

 

7.2. 聚類后的樣本進行有監(jiān)督學習

經過上述步驟的聚類操作,我們對富類訓練樣本進行了篩選,接下來我們就可以將相等樣本數的K個正負樣本進行有監(jiān)督訓練。如下圖所示: 

 

 

 

8、設計適用于不平衡數據集的模型

所有之前的方法都集中在數據上,并將模型保持為固定的組件。但事實上,如果設計的模型適用于不平衡數據,則不需要重新采樣數據,著名的XGBoost已經是一個很好的起點,因此設計一個適用于不平衡數據集的模型也是很有意義的。

通過設計一個代價函數來懲罰稀有類別的錯誤分類而不是分類豐富類別,可以設計出許多自然泛化為稀有類別的模型。例如,調整SVM以懲罰稀有類別的錯誤分類。 

責任編輯:龐桂玉 來源: 36大數據
相關推薦

2017-03-28 09:40:23

機器學習數據不平衡

2019-02-25 08:35:22

機器學習數據模型

2018-09-11 13:47:35

數據不平衡數據分布數據集

2022-05-06 09:48:56

機器學習樣本不平衡

2017-03-20 09:25:10

機器學習采樣數據合成

2020-09-21 09:02:56

AI機器學習類不平衡

2025-01-20 09:00:00

2024-10-18 07:10:43

2019-03-27 08:51:38

機器學習類失衡算法

2016-12-13 11:48:05

數據處理不平衡數據

2021-01-04 10:40:37

Python不平衡數據機器學習

2018-04-20 11:33:22

不平衡數據數據集模型

2023-09-29 22:51:22

數據不平衡Python機器學習

2023-12-26 15:32:25

不平衡數據過采樣機器學習

2020-10-06 10:44:16

機器學習不平衡數據算法

2021-06-06 22:41:30

人才技術預測不平衡

2018-06-11 16:20:22

數據不平衡數據集算法

2017-09-28 10:40:10

深度學習多體問題多代理系統(tǒng)

2017-09-23 22:07:24

深度學習N 體問題GAN

2013-04-23 11:17:47

Hadoop
點贊
收藏

51CTO技術棧公眾號