自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

數(shù)據(jù)分析領(lǐng)域中最為人稱道的七種降維方法

大數(shù)據(jù)
近來由于數(shù)據(jù)記錄和屬性規(guī)模的急劇增長,大數(shù)據(jù)處理平臺和并行數(shù)據(jù)分析算法也隨之出現(xiàn)。于此同時,這也推動了數(shù)據(jù)降維處理的應(yīng)用。實(shí)際上,數(shù)據(jù)量有時過猶不及。有時在數(shù)據(jù)分析應(yīng)用中大量的數(shù)據(jù)反而會產(chǎn)生更壞的性能。

 

[[153600]]

近來由于數(shù)據(jù)記錄和屬性規(guī)模的急劇增長,大數(shù)據(jù)處理平臺和并行數(shù)據(jù)分析算法也隨之出現(xiàn)。于此同時,這也推動了數(shù)據(jù)降維處理的應(yīng)用。實(shí)際上,數(shù)據(jù)量有時過猶不及。有時在數(shù)據(jù)分析應(yīng)用中大量的數(shù)據(jù)反而會產(chǎn)生更壞的性能。

***的一個例子是采用 2009 KDD Challenge 大數(shù)據(jù)集來預(yù)測客戶流失量。 該數(shù)據(jù)集維度達(dá)到 15000 維。 大多數(shù)數(shù)據(jù)挖掘算法都直接對數(shù)據(jù)逐列處理,在數(shù)據(jù)數(shù)目一大時,導(dǎo)致算法越來越慢。該項目的最重要的就是在減少數(shù)據(jù)列數(shù)的同時保證丟失的數(shù)據(jù)信息盡可能少。

以該項目為例,我們開始來探討在當(dāng)前數(shù)據(jù)分析領(lǐng)域中最為數(shù)據(jù)分析人員稱道和接受的數(shù)據(jù)降維方法。

缺失值比率 (Missing Values Ratio)

該方法的是基于包含太多缺失值的數(shù)據(jù)列包含有用信息的可能性較少。因此,可以將數(shù)據(jù)列缺失值大于某個閾值的列去掉。閾值越高,降維方法更為積極,即降維越少。該方法示意圖如下:

103103010

低方差濾波 (Low Variance Filter)

與上個方法相似,該方法假設(shè)數(shù)據(jù)列變化非常小的列包含的信息量少。因此,所有的數(shù)據(jù)列方差小的列被移除。需要注意的一點(diǎn)是:方差與數(shù)據(jù)范圍相關(guān)的,因此在采用該方法前需要對數(shù)據(jù)做歸一化處理。算法示意圖如下:

105105010

高相關(guān)濾波 (High Correlation Filter)

高相關(guān)濾波認(rèn)為當(dāng)兩列數(shù)據(jù)變化趨勢相似時,它們包含的信息也顯示。這樣,使用相似列中的一列就可以滿足機(jī)器學(xué)習(xí)模型。對于數(shù)值列之間的相似性通過計算相關(guān)系數(shù)來表示,對于名詞類列的相關(guān)系數(shù)可以通過計算皮爾遜卡方值來表示。相關(guān)系數(shù)大于某個閾值的兩列只保留一列。同樣要注意的是:相關(guān)系數(shù)對范圍敏感,所以在計算之前也需要對數(shù)據(jù)進(jìn)行歸一化處理。算法示意圖如下:

102102010

隨機(jī)森林/組合樹 (Random Forests)

組合決策樹通常又被成為隨機(jī)森林,它在進(jìn)行特征選擇與構(gòu)建有效的分類器時非常有用。一種常用的降維方法是對目標(biāo)屬性產(chǎn)生許多巨大的樹,然后根據(jù)對每個屬性的統(tǒng)計結(jié)果找到信息量***的特征子集。例如,我們能夠?qū)σ粋€非常巨大的數(shù)據(jù)集生成非常層次非常淺的樹,每顆樹只訓(xùn)練一小部分屬性。如果一個屬性經(jīng)常成為***分裂屬性,那么它很有可能是需要保留的信息特征。對隨機(jī)森林?jǐn)?shù)據(jù)屬性的統(tǒng)計評分會向我們揭示與其它屬性相比,哪個屬性才是預(yù)測能力***的屬性。算法示意圖如下:

104104010

主成分分析 (PCA)

主成分分析是一個統(tǒng)計過程,該過程通過正交變換將原始的 n 維數(shù)據(jù)集變換到一個新的被稱做主成分的數(shù)據(jù)集中。變換后的結(jié)果中,***個主成分具有***的方差值,每個后續(xù)的成分在與前述主成分正交條件限制下與具有***方差。降維時僅保存前 m(m < n) 個主成分即可保持***的數(shù)據(jù)信息量。需要注意的是主成分變換對正交向量的尺度敏感。數(shù)據(jù)在變換前需要進(jìn)行歸一化處理。同樣也需要注意的是,新的主成分并不是由實(shí)際系統(tǒng)產(chǎn)生的,因此在進(jìn)行 PCA 變換后會喪失數(shù)據(jù)的解釋性。如果說,數(shù)據(jù)的解釋能力對你的分析來說很重要,那么 PCA 對你來說可能就不適用了。算法示意圖如下:

106106010

反向特征消除 (Backward Feature Elimination)

在該方法中,所有分類算法先用 n 個特征進(jìn)行訓(xùn)練。每次降維操作,采用 n-1 個特征對分類器訓(xùn)練 n 次,得到新的 n 個分類器。將新分類器中錯分率變化最小的分類器所用的 n-1 維特征作為降維后的特征集。不斷的對該過程進(jìn)行迭代,即可得到降維后的結(jié)果。第k 次迭代過程中得到的是 n-k 維特征分類器。通過選擇***的錯誤容忍率,我們可以得到在選擇分類器上達(dá)到指定分類性能最小需要多少個特征。算法示意圖如下:

108108010

前向特征構(gòu)造 (Forward Feature Construction)

前向特征構(gòu)建是反向特征消除的反過程。在前向特征過程中,我們從 1 個特征開始,每次訓(xùn)練添加一個讓分類器性能提升***的特征。前向特征構(gòu)造和反向特征消除都十分耗時。它們通常用于輸入維數(shù)已經(jīng)相對較低的數(shù)據(jù)集。算法示意圖如下:

109109010

我們選擇 2009 KDD chanllenge 的削數(shù)據(jù)集來對這些降維技術(shù)在降維率、準(zhǔn)確度損失率以及計算速度方面進(jìn)行比較。當(dāng)然,***的準(zhǔn)確度與損失率也與選擇的數(shù)據(jù)分析模型有關(guān)。因此,***的降維率與準(zhǔn)確度的比較是在三種模型中進(jìn)行,這三種模型分別是:決策樹,神經(jīng)網(wǎng)絡(luò)與樸素貝葉斯。

通過運(yùn)行優(yōu)化循環(huán),***循環(huán)終止意味著低緯度與高準(zhǔn)確率取決于七大降維方法與***分類模型。***的***模型的性能通過采用所有特征進(jìn)行訓(xùn)練模型的基準(zhǔn)準(zhǔn)確度與 ROC 曲線下的面積來進(jìn)行比較。下面是對所有比較結(jié)果的對比。

111111011

從上表中的對比可知,數(shù)據(jù)降維算法不僅僅是能夠提高算法執(zhí)行的速度,同時也能過提高分析模型的性能。 在對數(shù)據(jù)集采用:缺失值降維、低方差濾波,高相關(guān)濾波或者隨機(jī)森林降維時,表中的 AoC 在測試數(shù)據(jù)集上有小幅度的增長。

110110011

確實(shí)在大數(shù)據(jù)時代,數(shù)據(jù)越多越好似乎已經(jīng)成為公理。我們再次解釋了當(dāng)數(shù)據(jù)數(shù)據(jù)集寶航過多的數(shù)據(jù)噪聲時,算法的性能會導(dǎo)致算法的性能達(dá)不到預(yù)期。移除信息量較少甚至無效信息唯獨(dú)可能會幫助我們構(gòu)建更具擴(kuò)展性、通用性的數(shù)據(jù)模型。該數(shù)據(jù)模型在新數(shù)據(jù)集上的表現(xiàn)可能會更好。

最近,我們咨詢了 LinkedIn 的一個數(shù)據(jù)分析小組在數(shù)據(jù)分析中最為常用的數(shù)據(jù)降維方法,除了本博客中提到的其中,還包括:隨機(jī)投影(Random Projections)、非負(fù)矩陣分解(N0n-negative Matrix Factorization),自動編碼(Auto-encoders),卡方檢測與信息增益(Chi-square and information gain), 多維標(biāo)定(Multidimensional Scaling), 相關(guān)性分析(Coorespondence Analysis), 因子分析(Factor Analysis)、聚類(Clustering)以及貝葉斯模型(Bayesian Models)。感謝 Asterios Stergioudis, Raoul Savos 以及 Michael Will 在 LinkedIN 小組中提供意見。

責(zé)任編輯:李英杰 來源: 愛數(shù)據(jù)
相關(guān)推薦

2021-07-16 09:55:46

數(shù)據(jù)工具軟件

2018-06-27 15:18:11

2018-07-12 12:52:50

2022-03-15 12:27:57

數(shù)據(jù)分析工具技能

2024-02-19 15:28:33

機(jī)器學(xué)習(xí)線性降維

2016-03-16 10:39:30

數(shù)據(jù)分析數(shù)據(jù)科學(xué)可視化

2024-12-31 12:09:31

2024-01-26 13:23:22

數(shù)據(jù)分析指標(biāo)監(jiān)控型

2023-03-27 12:15:26

2014-05-13 09:56:24

數(shù)據(jù)挖掘

2025-01-15 10:46:23

開發(fā)JavaScript集合

2022-03-17 15:15:53

數(shù)據(jù)分析大數(shù)據(jù)

2016-09-28 20:05:22

2010-09-16 17:47:49

2010-08-31 10:57:36

2017-04-01 14:23:35

PythonR機(jī)器學(xué)習(xí)

2011-12-16 14:45:36

JavaJSP

2011-05-30 13:37:46

JSP

2024-06-12 13:46:41

2016-08-17 11:19:32

網(wǎng)絡(luò)安全PowerPointAPI策略
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號