自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

使用 Python 進(jìn)行數(shù)據(jù)預(yù)處理的標(biāo)準(zhǔn)化

開發(fā) 后端
數(shù)據(jù)的基本縮放是使其成為標(biāo)準(zhǔn),以便所有值都在共同范圍內(nèi)。 在標(biāo)準(zhǔn)化中,數(shù)據(jù)的均值和方差分別為零和一。 它總是試圖使數(shù)據(jù)呈正態(tài)分布。

標(biāo)準(zhǔn)化和規(guī)范化是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)項(xiàng)目中大量使用的數(shù)據(jù)預(yù)處理技術(shù)之一。

[[411810]]

這些技術(shù)的主要作用

  • 以類似的格式縮放所有數(shù)據(jù),使模型的學(xué)習(xí)過(guò)程變得容易。
  • 數(shù)據(jù)中的奇數(shù)值被縮放或歸一化并且表現(xiàn)得像數(shù)據(jù)的一部分。

我們將通過(guò) Python 示例深入討論這兩個(gè)概念。

標(biāo)準(zhǔn)化

數(shù)據(jù)的基本縮放是使其成為標(biāo)準(zhǔn),以便所有值都在共同范圍內(nèi)。 在標(biāo)準(zhǔn)化中,數(shù)據(jù)的均值和方差分別為零和一。 它總是試圖使數(shù)據(jù)呈正態(tài)分布。

標(biāo)準(zhǔn)化公式如下所示:

z =(列的值 - 平均值)/標(biāo)準(zhǔn)偏差

 

機(jī)器學(xué)習(xí)中的一些算法試圖讓數(shù)據(jù)具有正態(tài)分布。但是,如果一個(gè)特征有更多的方差,而其他特征有低或單位方差,那么模型的學(xué)習(xí)將是不正確的,因?yàn)閺囊粋€(gè)特征到另一個(gè)特征的方差是有差異的。

正如我們上面討論的,標(biāo)準(zhǔn)縮放的范圍是“0”均值和“1”單位方差。

我們?nèi)绾问褂脴?biāo)準(zhǔn)縮放?

要使用標(biāo)準(zhǔn)伸縮,我們需要從預(yù)處理類中導(dǎo)入它,如下所示:

 

  1. from sklearn import preprocessing 
  2. scaler = preprocessing.StandardScaler() 

 

使用標(biāo)準(zhǔn)縮放的正確步驟是什么?

我們可以在 train-test split 之后使用標(biāo)準(zhǔn)縮放,因?yàn)槿绻覀冊(cè)诎l(fā)生數(shù)據(jù)泄漏問(wèn)題之前這樣做,可能會(huì)導(dǎo)致模型不太可靠。 如果我們?cè)诓鸱种斑M(jìn)行縮放,那么從訓(xùn)練中學(xué)習(xí)的過(guò)程也可以在測(cè)試集上完成,這是我們不想要的。

讓我們?cè)趕klearn庫(kù)的幫助下看看拆分過(guò)程

 

  1. from sklearn.model_selection import train_test_split 
  2. X_train, X_test, y_train, y_test = train_test_split(x, 
  3. y, train_size = 0.20, random_state = 42) 

 

在此之后,我們可以使用標(biāo)準(zhǔn)縮放

 

  1. from sklearn.preprocessing import StandardScaler 
  2. sc = StandardScaler()  
  3. X_train = sc.fit_transform(X_train)  
  4. X_test = sc.transform(X_test) 

 

讓我們舉一個(gè) python 例子。

 

  1. from sklearn import preprocessing 
  2. import numpy as np 
  3. #creating a training data 
  4. X_train = np.array([[ 4., -3., 2.],  
  5. [ 2., 2., 0.],  
  6. [ 0., -6., 7.]]) 
  7.  
  8. #fit the training data 
  9. scaler = preprocessing.StandardScaler().fit(X_train) 
  10. scaler 
  11. #output
  12. StandardScaler() 

現(xiàn)在,我們將檢查訓(xùn)練數(shù)據(jù)中每個(gè)特征的均值和縮放比例。

 

  1. scaler.mean_ 
  2. #output
  3. array([ 2., -2.33333333, 3.]) 
  4. scaler.scale_ 
  5. #output
  6. array([1.63299316, 3.29983165, 2.94392029]) 

 

scale_屬性找出特征之間的相對(duì)尺度,得到一個(gè)標(biāo)準(zhǔn)尺度,即零均值和單位方差。均值屬性用來(lái)找出每個(gè)特征的均值。

現(xiàn)在,我們將轉(zhuǎn)換縮放后的數(shù)據(jù)

 

  1. X_scaled = scaler.transform(X_train) 
  2. X_scaled 
  3. #output
  4. array([[ 1.22474487, -0.20203051, -0.33968311], 
  5. [ 0. , 1.31319831, -1.01904933], 
  6. [-1.22474487, -1.1111678 , 1.35873244]]) 

 

為了檢查特征的零均值和單位方差,我們將找到均值和標(biāo)準(zhǔn)差。

 

  1. X_scaled.mean(axis=0) 
  2. #output
  3. array([0., 0., 0.]) 
  4. X_scaled.std(axis=0) 
  5. #output
  6. array([1., 1., 1.]) 

 

我們還可以在 MinMaxScaler 和 MaxAbsScaler 的幫助下進(jìn)行范圍縮放。

有時(shí),我們?cè)跀?shù)據(jù)中存在影響算法建模的異常值,并且標(biāo)準(zhǔn)縮放器受到異常值的影響,其他方法如 min-max 和 max-abs 縮放器使數(shù)據(jù)在一定范圍內(nèi)。

MinMaxScaler

MinMaxScaler 是另一種在 [0,1] 范圍內(nèi)縮放數(shù)據(jù)的方法。 它使數(shù)據(jù)保持原始形狀并保留有價(jià)值的信息,而受異常值的影響較小。

python示例如下所示:

 

  1. from sklearn import preprocessing 
  2. import numpy as np 
  3. #creating a training data 
  4. X_train = np.array([[ 4., -3., 2.],  
  5. [ 2., 2., 0.],  
  6. [ 0., -6., 7.]]) 
  7. min_max_scaler = preprocessing.MinMaxScaler() 
  8. X_train_minmax = min_max_scaler.fit_transform(X_train) 
  9. X_train_minmax 
  10. #output
  11. array([[1. , 0.375 , 0.28571429], 
  12. [0.5 , 1. , 0. ], 
  13. [0. , 0. , 1. ]]) 

 

我們可以在使用 MinMaxScaler 縮放后看到“0”到“1”范圍內(nèi)的數(shù)據(jù)。

MaxAbsScaler

這是另一種縮放方法,其中數(shù)據(jù)在 [-1,1] 的范圍內(nèi)。 這種縮放的好處是它不會(huì)移動(dòng)或居中數(shù)據(jù)并保持?jǐn)?shù)據(jù)的稀疏性。

python示例如下所示:

 

  1. from sklearn import preprocessing 
  2. import numpy as np 
  3. #creating a training data 
  4. X_train = np.array([[ 4., -3., 2.],  
  5. [ 2., 2., 0.],  
  6. [ 0., -6., 7.]]) 
  7. max_abs_scaler = preprocessing.MaxAbsScaler() 
  8. X_train_maxabs = max_abs_scaler.fit_transform(X_train) 
  9. X_train_maxabs 
  10. #output
  11. array([[ 1. , -0.5 , 0.28571429], 
  12. [ 0.5 , 0.33333333, 0. ], 
  13. [ 0. , -1. , 1. ]]) 

 

我們可以在使用 MaxAbsScaler 縮放后看到“-1”到“1”范圍內(nèi)的數(shù)據(jù)。

總結(jié)

數(shù)據(jù)的縮放是機(jī)器學(xué)習(xí)或深度學(xué)習(xí)的一個(gè)非常重要的部分。 在本文中,MaxAbsScaler 在稀疏數(shù)據(jù)中很有用,而另一方面,標(biāo)準(zhǔn)縮放也可以用于稀疏數(shù)據(jù),但也會(huì)由于過(guò)多的內(nèi)存分配而給出值錯(cuò)誤。

責(zé)任編輯:華軒 來(lái)源: 今日頭條
相關(guān)推薦

2023-11-27 13:58:00

數(shù)據(jù)預(yù)處理數(shù)據(jù)標(biāo)準(zhǔn)化

2024-10-30 10:00:00

Python函數(shù)

2021-05-14 13:57:01

數(shù)據(jù)標(biāo)準(zhǔn)組織技術(shù)

2020-08-14 10:45:26

Pandas可視化數(shù)據(jù)預(yù)處理

2015-09-01 10:28:56

云計(jì)算標(biāo)準(zhǔn)化需求標(biāo)準(zhǔn)化組織

2011-06-14 10:20:20

URL標(biāo)準(zhǔn)化

2015-09-02 13:09:32

大數(shù)據(jù)標(biāo)準(zhǔn)化

2018-03-13 12:51:12

Python數(shù)據(jù)函數(shù)

2018-06-07 15:58:52

Python函數(shù)數(shù)據(jù)

2009-12-18 16:33:14

ADO.NET標(biāo)準(zhǔn)化

2021-05-18 11:19:28

數(shù)據(jù)標(biāo)準(zhǔn)化大數(shù)據(jù)技術(shù)

2022-11-02 14:45:24

Python數(shù)據(jù)分析工具

2016-10-07 22:09:59

2010-04-20 14:55:58

Oracle標(biāo)準(zhǔn)化

2022-01-26 09:00:00

數(shù)據(jù)庫(kù)SnowparkSQL

2022-03-28 14:08:02

Python數(shù)據(jù)清洗數(shù)據(jù)集

2018-01-09 09:32:48

開源標(biāo)準(zhǔn)化基礎(chǔ)設(shè)施

2023-09-27 15:34:48

數(shù)據(jù)編程

2012-06-14 10:16:30

ibmdw

2024-09-29 08:54:36

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)