自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

數(shù)據(jù)科學(xué)家需要了解的5種采樣方法

大數(shù)據(jù)
筆者按,采樣問題是數(shù)據(jù)科學(xué)中的常見問題,對此,WalmartLabs 的數(shù)據(jù)科學(xué)家 Rahul Agarwal 分享了數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法,筆者編譯整理如下。

筆者按,采樣問題是數(shù)據(jù)科學(xué)中的常見問題,對此,WalmartLabs 的數(shù)據(jù)科學(xué)家 Rahul Agarwal 分享了數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法,雷鋒網(wǎng) AI 科技評論編譯整理如下。

數(shù)據(jù)科學(xué)實際上是就是研究算法。

我每天都在努力學(xué)習許多算法,所以我想列出一些最常見和最常用的算法。

本文介紹了在處理數(shù)據(jù)時可以使用的一些最常見的采樣技術(shù)。

簡單隨機抽樣

假設(shè)您要選擇一個群體的子集,其中該子集的每個成員被選擇的概率都相等。

下面我們從一個數(shù)據(jù)集中選擇 100 個采樣點。

  1. sample_df = df.sample(100) 

分層采樣

[[272238]]

假設(shè)我們需要估計選舉中每個候選人的平均票數(shù)?,F(xiàn)假設(shè)該國有 3 個城鎮(zhèn):

  • A 鎮(zhèn)有 100 萬工人,
  • B 鎮(zhèn)有 200 萬工人,以及
  • C 鎮(zhèn)有 300 萬退休人員。

我們可以選擇在整個人口中隨機抽取一個 60 大小的樣本,但在這些城鎮(zhèn)中,隨機樣本可能不太平衡,因此會產(chǎn)生偏差,導(dǎo)致估計誤差很大。

相反,如果我們選擇從 A、B 和 C 鎮(zhèn)分別抽取 10、20 和 30 個隨機樣本,那么我們可以在總樣本大小相同的情況下,產(chǎn)生較小的估計誤差。

使用 python 可以很容易地做到這一點:

 

  1. from sklearn.model_selection import train_test_split  
  2. X_train, X_test, y_train, y_test = train_test_split(X, y,  
  3. stratify=y,  
  4. test_size=0.25) 

水塘采樣

[[272239]]

我喜歡這個問題陳述:

  • 假設(shè)您有一個項目流,它長度較大且未知以至于我們只能迭代一次。

創(chuàng)建一個算法,從這個流中隨機選擇一個項目,這樣每個項目都有相同的可能被選中。

我們怎么能做到這一點?

假設(shè)我們必須從無限大的流中抽取 5 個對象,且每個元素被選中的概率都相等。

 

  1. import randomdef generator(max):  
  2. number = 1  
  3. while number < max 
  4. number += 1  
  5. yield number# Create as stream generator  
  6. stream = generator(10000)# Doing Reservoir Sampling from the stream  
  7. k=5  
  8. reservoir = []  
  9. for i, element in enumerate(stream):  
  10. if i+1<= k:  
  11. reservoir.append(element)  
  12. else 
  13. probability = k/(i+1)  
  14. if random.random() < probability:  
  15. Select item in stream and remove one of the k items already selected  
  16. reservoir[random.choice(range(0,k))] = elementprint(reservoir)  
  17. ------------------------------------  
  18. [1369, 4108, 9986, 828, 5589] 

從數(shù)學(xué)上可以證明,在樣本中,流中每個元素被選中的概率相同。這是為什么呢?

當涉及到數(shù)學(xué)問題時,從一個小問題開始思考總是有幫助的。

所以,讓我們考慮一個只有 3 個項目的流,我們必須保留其中 2 個。

當我們看到第一個項目,我們把它放在清單上,因為我們的水塘有空間。在我們看到第二個項目時,我們把它放在列表中,因為我們的水塘還是有空間。

現(xiàn)在我們看到第三個項目。這里是事情開始變得有趣的地方。我們有 2/3 的概率將第三個項目放在清單中。

現(xiàn)在讓我們看看第一個項目被選中的概率:

移除第一個項目的概率是項目 3 被選中的概率乘以項目 1 被隨機選為水塘中 2 個要素的替代候選的概率。這個概率是:

  • 2/3*1/2 = 1/3

因此,選擇項目 1 的概率為:

  • 1–1/3=2/3

我們可以對第二個項目使用完全相同的參數(shù),并且可以將其擴展到多個項目。

因此,每個項目被選中的概率相同:2/3 或者用一般的公式表示為 K/N

隨機欠采樣和過采樣

數(shù)據(jù)科學(xué)家需要了解的5種采樣方法

我們經(jīng)常會遇到不平衡的數(shù)據(jù)集。

一種廣泛采用的處理高度不平衡數(shù)據(jù)集的技術(shù)稱為重采樣。它包括從多數(shù)類(欠采樣)中刪除樣本或向少數(shù)類(過采樣)中添加更多示例。

讓我們先創(chuàng)建一些不平衡數(shù)據(jù)示例。

 

  1. from sklearn.datasets import make_classificationX, y = make_classification(  
  2. n_classes=2, class_sep=1.5, weights=[0.9, 0.1],  
  3. n_informative=3, n_redundant=1, flip_y=0,  
  4. n_features=20, n_clusters_per_class=1,  
  5. n_samples=100, random_state=10  
  6. )X = pd.DataFrame(X)  
  7. X['target'] = y 

我們現(xiàn)在可以使用以下方法進行隨機過采樣和欠采樣:

 

  1. num_0 = len(X[X['target']==0])  
  2. num_1 = len(X[X['target']==1])  
  3. print(num_0,num_1)# random undersampleundersampled_data = pd.concat([ X[X['target']==0].sample(num_1) , X[X['target']==1] ])  
  4. print(len(undersampled_data))# random oversampleoversampled_data = pd.concat([ X[X['target']==0] , X[X['target']==1].sample(num_0, replace=True) ])  
  5. print(len(oversampled_data))------------------------------------------------------------  
  6. OUTPUT 
  7. 90 10  
  8. 20  
  9. 180 

使用 imbalanced-learn 進行欠采樣和過采樣

imbalanced-learn(imblearn)是一個用于解決不平衡數(shù)據(jù)集問題的 python 包,它提供了多種方法來進行欠采樣和過采樣。

a. 使用 Tomek Links 進行欠采樣:

imbalanced-learn 提供的一種方法叫做 Tomek Links。Tomek Links 是鄰近的兩個相反類的例子。

在這個算法中,我們最終從 Tomek Links 中刪除了大多數(shù)元素,這為分類器提供了一個更好的決策邊界。

數(shù)據(jù)科學(xué)家需要了解的5種采樣方法

  1. from imblearn.under_sampling import TomekLinks  
  2. tl = TomekLinks(return_indices=True, ratio='majority' 
  3. X_tl, y_tl, id_tl = tl.fit_sample(X, y) 

b. 使用 SMOTE 進行過采樣:

在 SMOE(Synthetic Minority Oversampling Technique)中,我們在現(xiàn)有元素附近合并少數(shù)類的元素。

數(shù)據(jù)科學(xué)家需要了解的5種采樣方法

  1. from imblearn.over_sampling import SMOTE  
  2. smote = SMOTE(ratio='minority' 
  3. X_sm, y_sm = smote.fit_sample(X, y) 

imbLearn 包中還有許多其他方法,可以用于欠采樣(Cluster Centroids, NearMiss 等)和過采樣(ADASYN 和 bSMOTE)。

結(jié)論

算法是數(shù)據(jù)科學(xué)的生命線。

抽樣是數(shù)據(jù)科學(xué)中的一個重要課題,但我們實際上并沒有討論得足夠多。

有時,一個好的抽樣策略會大大推進項目的進展。錯誤的抽樣策略可能會給我們帶來錯誤的結(jié)果。因此,在選擇抽樣策略時應(yīng)該小心。

如果你想了解更多有關(guān)數(shù)據(jù)科學(xué)的知識,我想把 Andrew Ng 的這門優(yōu)秀課程推薦給你,這個課程是我入門數(shù)據(jù)科學(xué)的法寶,你一定要去看看。

本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。

責任編輯:未麗燕 來源: 雷鋒網(wǎng)
相關(guān)推薦

2020-08-03 12:47:58

DevOps數(shù)據(jù)科學(xué)家代碼

2019-12-11 19:19:19

算法數(shù)據(jù)科學(xué)家代碼

2017-10-11 18:14:13

數(shù)據(jù)收集大數(shù)據(jù)系統(tǒng)建模

2020-09-04 16:17:15

數(shù)據(jù)科學(xué)離群點檢測

2016-04-11 14:15:06

數(shù)據(jù)科學(xué)數(shù)據(jù)挖掘工具

2017-08-04 15:53:10

大數(shù)據(jù)真?zhèn)螖?shù)據(jù)科學(xué)家

2019-07-05 10:29:17

大數(shù)據(jù)數(shù)據(jù)科學(xué)家

2016-05-11 10:36:16

數(shù)據(jù)科學(xué)家數(shù)據(jù)科學(xué)大數(shù)據(jù)

2017-01-23 16:00:25

數(shù)據(jù)科學(xué)家大數(shù)據(jù)數(shù)學(xué)家

2019-06-05 15:17:45

2019-12-13 07:58:34

數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家統(tǒng)計

2013-11-12 09:27:01

大數(shù)據(jù)科學(xué)家大數(shù)據(jù)

2016-09-22 14:28:33

數(shù)據(jù)科學(xué)家算法

2020-09-29 17:15:41

數(shù)據(jù)科學(xué)技術(shù)

2012-12-26 10:51:20

數(shù)據(jù)科學(xué)家

2018-03-27 11:02:55

2017-08-22 10:25:43

IT人才數(shù)據(jù)科學(xué)HR

2018-12-24 08:37:44

數(shù)據(jù)科學(xué)家數(shù)據(jù)模型

2018-01-25 14:19:32

深度學(xué)習數(shù)據(jù)科學(xué)遷移學(xué)習

2020-10-31 22:04:39

統(tǒng)計和數(shù)據(jù)科學(xué)數(shù)據(jù)科學(xué)家
點贊
收藏

51CTO技術(shù)棧公眾號