自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何解決機器學(xué)習(xí)中數(shù)據(jù)不平衡問題

人工智能 深度學(xué)習(xí)
在學(xué)術(shù)研究與教學(xué)中,很多算法都有一個基本假設(shè),那就是數(shù)據(jù)分布是均勻的。當(dāng)我們把這些算法直接應(yīng)用于實際數(shù)據(jù)時,大多數(shù)情況下都無法取得理想的結(jié)果。因為實際數(shù)據(jù)往往分布得很不均勻,都會存在“長尾現(xiàn)象”,也就是所謂的“二八原理”。

[[186778]]

這幾年來,機器學(xué)習(xí)和數(shù)據(jù)挖掘非?;馃?,它們逐漸為世界帶來實際價值。與此同時,越來越多的機器學(xué)習(xí)算法從學(xué)術(shù)界走向工業(yè)界,而在這個過程中會有很多困難。數(shù)據(jù)不平衡問題雖然不是最難的,但絕對是最重要的問題之一。

一、數(shù)據(jù)不平衡

在學(xué)術(shù)研究與教學(xué)中,很多算法都有一個基本假設(shè),那就是數(shù)據(jù)分布是均勻的。當(dāng)我們把這些算法直接應(yīng)用于實際數(shù)據(jù)時,大多數(shù)情況下都無法取得理想的結(jié)果。因為實際數(shù)據(jù)往往分布得很不均勻,都會存在“長尾現(xiàn)象”,也就是所謂的“二八原理”。下圖是新浪微博交互分布情況:

可以看到大部分微博的總互動數(shù)(被轉(zhuǎn)發(fā)、評論與點贊數(shù)量)在0-5之間,交互數(shù)多的微博(多于100)非常之少。如果我們?nèi)ヮA(yù)測一條微博交互數(shù)所在檔位,預(yù)測器只需要把所有微博預(yù)測為第一檔(0-5)就能獲得非常高的準(zhǔn)確率,而這樣的預(yù)測器沒有任何價值。那如何來解決機器學(xué)習(xí)中數(shù)據(jù)不平衡問題呢?這便是這篇文章要討論的主要內(nèi)容。

嚴(yán)格地講,任何數(shù)據(jù)集上都有數(shù)據(jù)不平衡現(xiàn)象,這往往由問題本身決定的,但我們只關(guān)注那些分布差別比較懸殊的;另外,雖然很多數(shù)據(jù)集都包含多個類別,但這里著重考慮二分類,因為解決了二分類中的數(shù)據(jù)不平衡問題后,推而廣之就能得到多分類情況下的解決方案。綜上,這篇文章主要討論如何解決二分類中正負樣本差兩個及以上數(shù)量級情況下的數(shù)據(jù)不平衡問題。

不平衡程度相同(即正負樣本比例類似)的兩個問題,解決的難易程度也可能不同,因為問題難易程度還取決于我們所擁有數(shù)據(jù)有多大。比如在預(yù)測微博互動數(shù)的問題中,雖然數(shù)據(jù)不平衡,但每個檔位的數(shù)據(jù)量都很大——最少的類別也有幾萬個樣本,這樣的問題通常比較容易解決;而在癌癥診斷的場景中,因為患癌癥的人本來就很少,所以數(shù)據(jù)不但不平衡,樣本數(shù)還非常少,這樣的問題就非常棘手。綜上,可以把問題根據(jù)難度從小到大排個序:大數(shù)據(jù)+分布均衡<大數(shù)據(jù)+分布不均衡<小數(shù)據(jù)+數(shù)據(jù)均衡<小數(shù)據(jù)+數(shù)據(jù)不均衡。對于需要解決的問題,拿到數(shù)據(jù)后,首先統(tǒng)計可用訓(xùn)練數(shù)據(jù)有多大,然后再觀察數(shù)據(jù)分布情況。經(jīng)驗表明,訓(xùn)練數(shù)據(jù)中每個類別有5000個以上樣本,數(shù)據(jù)量是足夠的,正負樣本差一個數(shù)量級以內(nèi)是可以接受的,不太需要考慮數(shù)據(jù)不平衡問題(完全是經(jīng)驗,沒有理論依據(jù),僅供參考)。

二、如何解決

解決這一問題的基本思路是讓正負樣本在訓(xùn)練過程中擁有相同的話語權(quán),比如利用采樣與加權(quán)等方法。為了方便起見,我們把數(shù)據(jù)集中樣本較多的那一類稱為“大眾類”,樣本較少的那一類稱為“小眾類”。

1. 采樣

采樣方法是通過對訓(xùn)練集進行處理使其從不平衡的數(shù)據(jù)集變成平衡的數(shù)據(jù)集,在大部分情況下會對最終的結(jié)果帶來提升。

采樣分為上采樣(Oversampling)和下采樣(Undersampling),上采樣是把小種類復(fù)制多份,下采樣是從大眾類中剔除一些樣本,或者說只從大眾類中選取部分樣本。

隨機采樣最大的優(yōu)點是簡單,但缺點也很明顯。上采樣后的數(shù)據(jù)集中會反復(fù)出現(xiàn)一些樣本,訓(xùn)練出來的模型會有一定的過擬合;而下采樣的缺點顯而易見,那就是最終的訓(xùn)練集丟失了數(shù)據(jù),模型只學(xué)到了總體模式的一部分。

上采樣會把小眾樣本復(fù)制多份,一個點會在高維空間中反復(fù)出現(xiàn),這會導(dǎo)致一個問題,那就是運氣好就能分對很多點,否則分錯很多點。為了解決這一問題,可以在每次生成新數(shù)據(jù)點時加入輕微的隨機擾動,經(jīng)驗表明這種做法非常有效。

因為下采樣會丟失信息,如何減少信息的損失呢?第一種方法叫做EasyEnsemble,利用模型融合的方法(Ensemble):多次下采樣(放回采樣,這樣產(chǎn)生的訓(xùn)練集才相互獨立)產(chǎn)生多個不同的訓(xùn)練集,進而訓(xùn)練多個不同的分類器,通過組合多個分類器的結(jié)果得到最終的結(jié)果。第二種方法叫做BalanceCascade,利用增量訓(xùn)練的思想(Boosting):先通過一次下采樣產(chǎn)生訓(xùn)練集,訓(xùn)練一個分類器,對于那些分類正確的大眾樣本不放回,然后對這個更小的大眾樣本下采樣產(chǎn)生訓(xùn)練集,訓(xùn)練第二個分類器,以此類推,最終組合所有分類器的結(jié)果得到最終結(jié)果。第三種方法是利用KNN試圖挑選那些最具代表性的大眾樣本,叫做NearMiss,這類方法計算量很大,感興趣的可以參考“Learning from Imbalanced Data”這篇綜述的3.2.1節(jié)。

2. 數(shù)據(jù)合成

數(shù)據(jù)合成方法是利用已有樣本生成更多樣本,這類方法在小數(shù)據(jù)場景下有很多成功案例,比如醫(yī)學(xué)圖像分析等。

其中最常見的一種方法叫做SMOTE,它利用小眾樣本在特征空間的相似性來生成新樣本。對于小眾樣本

從它屬于小眾類的K近鄰中隨機選取一個樣本點

生成一個新的小眾樣本

 

其中

是隨機數(shù)。

 

上圖是SMOTE方法在

近鄰下的示意圖,黑色方格是生成的新樣本。

SMOTE為每個小眾樣本合成相同數(shù)量的新樣本,這帶來一些潛在的問題:一方面是增加了類之間重疊的可能性,另一方面是生成一些沒有提供有益信息的樣本。為了解決這個問題,出現(xiàn)兩種方法:Borderline-SMOTE與ADASYN。

Borderline-SMOTE的解決思路是尋找那些應(yīng)該為之合成新樣本的小眾樣本。即為每個小眾樣本計算K近鄰,只為那些K近鄰中有一半以上大眾樣本的小眾樣本生成新樣本。直觀地講,只為那些周圍大部分是大眾樣本的小眾樣本生成新樣本,因為這些樣本往往是邊界樣本。確定了為哪些小眾樣本生成新樣本后再利用SMOTE生成新樣本。

ADASYN的解決思路是根據(jù)數(shù)據(jù)分布情況為不同小眾樣本生成不同數(shù)量的新樣本。首先根據(jù)最終的平衡程度設(shè)定總共需要生成的新小眾樣本數(shù)量

 

確定個數(shù)后再利用SMOTE生成新樣本。

3. 加權(quán)

除了采樣和生成新數(shù)據(jù)等方法,我們還可以通過加權(quán)的方式來解決數(shù)據(jù)不平衡問題,即對不同類別分錯的代價不同,如下圖:

橫向是真實分類情況,縱向是預(yù)測分類情況,C(i,j)是把真實類別為j的樣本預(yù)測為i時的損失,我們需要根據(jù)實際情況來設(shè)定它的值。

這種方法的難點在于設(shè)置合理的權(quán)重,實際應(yīng)用中一般讓各個分類間的加權(quán)損失值近似相等。當(dāng)然這并不是通用法則,還是需要具體問題具體分析。

4. 一分類

對于正負樣本極不平衡的場景,我們可以換一個完全不同的角度來看待問題:把它看做一分類(One Class Learning)或異常檢測(Novelty Detection)問題。這類方法的重點不在于捕捉類間的差別,而是為其中一類進行建模,經(jīng)典的工作包括One-class SVM等。

三、如何選擇

解決數(shù)據(jù)不平衡問題的方法有很多,上面只是一些最常用的方法,而最常用的方法也有這么多種,如何根據(jù)實際問題選擇合適的方法呢?接下來談?wù)勔恍┪业慕?jīng)驗。

在正負樣本都非常之少的情況下,應(yīng)該采用數(shù)據(jù)合成的方式;在負樣本足夠多,正樣本非常之少且比例及其懸殊的情況下,應(yīng)該考慮一分類方法;在正負樣本都足夠多且比例不是特別懸殊的情況下,應(yīng)該考慮采樣或者加權(quán)的方法。

采樣和加權(quán)在數(shù)學(xué)上是等價的,但實際應(yīng)用中效果卻有差別。尤其是采樣了諸如Random Forest等分類方法,訓(xùn)練過程會對訓(xùn)練集進行隨機采樣。在這種情況下,如果計算資源允許上采樣往往要比加權(quán)好一些。

另外,雖然上采樣和下采樣都可以使數(shù)據(jù)集變得平衡,并且在數(shù)據(jù)足夠多的情況下等價,但兩者也是有區(qū)別的。實際應(yīng)用中,我的經(jīng)驗是如果計算資源足夠且小眾類樣本足夠多的情況下使用上采樣,否則使用下采樣,因為上采樣會增加訓(xùn)練集的大小進而增加訓(xùn)練時間,同時小的訓(xùn)練集非常容易產(chǎn)生過擬合。對于下采樣,如果計算資源相對較多且有良好的并行環(huán)境,應(yīng)該選擇Ensemble方法。

責(zé)任編輯:武曉燕 來源: 36大數(shù)據(jù)
相關(guān)推薦

2017-06-16 22:14:45

機器學(xué)習(xí)數(shù)據(jù)不平衡

2019-02-25 08:35:22

機器學(xué)習(xí)數(shù)據(jù)模型

2018-09-11 13:47:35

數(shù)據(jù)不平衡數(shù)據(jù)分布數(shù)據(jù)集

2022-05-06 09:48:56

機器學(xué)習(xí)樣本不平衡

2017-03-20 09:25:10

機器學(xué)習(xí)采樣數(shù)據(jù)合成

2020-09-21 09:02:56

AI機器學(xué)習(xí)類不平衡

2025-01-20 09:00:00

2024-10-18 07:10:43

2019-03-27 08:51:38

機器學(xué)習(xí)類失衡算法

2021-01-04 10:40:37

Python不平衡數(shù)據(jù)機器學(xué)習(xí)

2016-12-13 11:48:05

數(shù)據(jù)處理不平衡數(shù)據(jù)

2018-04-20 11:33:22

不平衡數(shù)據(jù)數(shù)據(jù)集模型

2020-10-06 10:44:16

機器學(xué)習(xí)不平衡數(shù)據(jù)算法

2023-09-29 22:51:22

數(shù)據(jù)不平衡Python機器學(xué)習(xí)

2023-12-26 15:32:25

不平衡數(shù)據(jù)過采樣機器學(xué)習(xí)

2013-04-23 11:17:47

Hadoop

2021-06-06 22:41:30

人才技術(shù)預(yù)測不平衡

2018-06-11 16:20:22

數(shù)據(jù)不平衡數(shù)據(jù)集算法

2017-09-28 10:40:10

深度學(xué)習(xí)多體問題多代理系統(tǒng)

2017-09-23 22:07:24

深度學(xué)習(xí)N 體問題GAN
點贊
收藏

51CTO技術(shù)棧公眾號