自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一文讀懂聚類算法

大數(shù)據(jù) 算法
聚類是數(shù)據(jù)挖掘中的概念,就是按照某個(gè)特定標(biāo)準(zhǔn)(如距離)把一個(gè)數(shù)據(jù)集分割成不同的類或簇,使得同一個(gè)簇內(nèi)的數(shù)據(jù)對象的相似性盡可能大,同時(shí)不在同一個(gè)簇中的數(shù)據(jù)對象的差異性也盡可能地大。也即聚類后同一類的數(shù)據(jù)盡可能聚集到一起,不同類數(shù)據(jù)盡量分離。

一文讀懂聚類算法

1. 聚類的基本概念

1.1 定義

聚類是數(shù)據(jù)挖掘中的概念,就是按照某個(gè)特定標(biāo)準(zhǔn)(如距離)把一個(gè)數(shù)據(jù)集分割成不同的類或簇,使得同一個(gè)簇內(nèi)的數(shù)據(jù)對象的相似性盡可能大,同時(shí)不在同一個(gè)簇中的數(shù)據(jù)對象的差異性也盡可能地大。也即聚類后同一類的數(shù)據(jù)盡可能聚集到一起,不同類數(shù)據(jù)盡量分離。

1.2 聚類與分類的區(qū)別

Clustering (聚類),簡單地說就是把相似的東西分到一組,聚類的時(shí)候,我們并不關(guān)心某一類是什么,我們需要實(shí)現(xiàn)的目標(biāo)只是把相似的東西聚到一起。因此,一個(gè)聚類算法通常只需要知道如何計(jì)算相似度就可以開始工作了,因此 clustering 通常并不需要使用訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),這在Machine Learning中被稱作unsupervised learning (無監(jiān)督學(xué)習(xí))。

Classification (分類),對于一個(gè)classifier,通常需要你告訴它“這個(gè)東西被分為某某類”這樣一些例子,理想情況下,一個(gè) classifier 會從它得到的訓(xùn)練集中進(jìn)行“學(xué)習(xí)”,從而具備對未知數(shù)據(jù)進(jìn)行分類的能力,這種提供訓(xùn)練數(shù)據(jù)的過程通常叫做supervised learning (監(jiān)督學(xué)習(xí))。

1.3 聚類過程

  1. 數(shù)據(jù)準(zhǔn)備:包括特征標(biāo)準(zhǔn)化和降維;
  2. 特征選擇:從最初的特征中選擇最有效的特征,并將其存儲于向量中;
  3. 特征提?。和ㄟ^對所選擇的特征進(jìn)行轉(zhuǎn)換形成新的突出特征;
  4. 聚類(或分組):首先選擇合適特征類型的某種距離函數(shù)(或構(gòu)造新的距離函數(shù))進(jìn)行接近程度的度量,而后執(zhí)行聚類或分組;
  5. 聚類結(jié)果評估:是指對聚類結(jié)果進(jìn)行評估,評估主要有3種:外部有效性評估、內(nèi)部有效性評估和相關(guān)性測試評估。

1.4 衡量聚類算法優(yōu)劣的標(biāo)準(zhǔn)

  1. 處理大的數(shù)據(jù)集的能力;
  2. 處理任意形狀,包括有間隙的嵌套的數(shù)據(jù)的能力;
  3. 算法處理的結(jié)果與數(shù)據(jù)輸入的順序是否相關(guān),也就是說算法是否獨(dú)立于數(shù)據(jù)輸入順序;
  4. 處理數(shù)據(jù)噪聲的能力;
  5. 是否需要預(yù)先知道聚類個(gè)數(shù),是否需要用戶給出領(lǐng)域知識;
  6. 算法處理有很多屬性數(shù)據(jù)的能力,也就是對數(shù)據(jù)維數(shù)是否敏感。

2. 聚類方法的分類

主要分為層次化聚類算法,劃分式聚類算法,基于密度的聚類算法,基于網(wǎng)格的聚類算法,基于模型的聚類算法等。

2.1 層次化聚類算法

又稱樹聚類算法,透過一種層次架構(gòu)方式,反復(fù)將數(shù)據(jù)進(jìn)行分裂或聚合。典型的有BIRCH算法,CURE算法,CHAMELEON算法,Sequence data rough clustering算法,Between groups average算法,Furthest neighbor算法,Neares neighbor算法等。

典型凝聚型層次聚類:

先將每個(gè)對象作為一個(gè)簇,然后合并這些原子簇為越來越大的簇,直到所有對象都在一個(gè)簇中,或者某個(gè)終結(jié)條件被滿足。

算法流程:

  1. 將每個(gè)對象看作一類,計(jì)算兩兩之間的最小距離;
  2. 將距離最小的兩個(gè)類合并成一個(gè)新類;
  3. 重新計(jì)算新類與所有類之間的距離;
  4. 重復(fù)2、3,直到所有類最后合并成一類。

2.2 劃分式聚類算法

預(yù)先指定聚類數(shù)目或聚類中心,反復(fù)迭代逐步降低目標(biāo)函數(shù)誤差值直至收斂,得到最終結(jié)果。K-means,K-modes-Huang,K-means-CP,MDS_CLUSTER, Feature weighted fuzzy clustering,CLARANS等

經(jīng)典K-means算法流程:

  1. 隨機(jī)地選擇k個(gè)對象,每個(gè)對象初始地代表了一個(gè)簇的中心;
  2. 對剩余的每個(gè)對象,根據(jù)其與各簇中心的距離,將它賦給最近的簇;
  3. 重新計(jì)算每個(gè)簇的平均值,更新為新的簇中心;
  4. 不斷重復(fù)2、3,直到準(zhǔn)則函數(shù)收斂。

2.3 基于模型的聚類算法

為每簇假定了一個(gè)模型,尋找數(shù)據(jù)對給定模型的最佳擬合,同一”類“的數(shù)據(jù)屬于同一種概率分布,即假設(shè)數(shù)據(jù)是根據(jù)潛在的概率分布生成的。主要有基于統(tǒng)計(jì)學(xué)模型的方法和基于神經(jīng)網(wǎng)絡(luò)模型的方法,尤其以基于概率模型的方法居多。一個(gè)基于模型的算法可能通過構(gòu)建反應(yīng)數(shù)據(jù)點(diǎn)空間分布的密度函數(shù)來定位聚類?;谀P偷木垲愒噲D優(yōu)化給定的數(shù)據(jù)和某些數(shù)據(jù)模型之間的適應(yīng)性。

SOM神經(jīng)網(wǎng)絡(luò)算法:

該算法假設(shè)在輸入對象中存在一些拓?fù)浣Y(jié)構(gòu)或順序,可以實(shí)現(xiàn)從輸入空間(n維)到輸出平面(2維)的降維映射,其映射具有拓?fù)涮卣鞅3中再|(zhì),與實(shí)際的大腦處理有很強(qiáng)的理論聯(lián)系。

SOM網(wǎng)絡(luò)包含輸入層和輸出層。輸入層對應(yīng)一個(gè)高維的輸入向量,輸出層由一系列組織在2維網(wǎng)格上的有序節(jié)點(diǎn)構(gòu)成,輸入節(jié)點(diǎn)與輸出節(jié)點(diǎn)通過權(quán)重向量連接。學(xué)習(xí)過程中,找到與之距離最短的輸出層單元,即獲勝單元,對其更新。同時(shí),將鄰近區(qū)域的權(quán)值更新,使輸出節(jié)點(diǎn)保持輸入向量的拓?fù)涮卣鳌?/p>

算法流程:

  1. 網(wǎng)絡(luò)初始化,對輸出層每個(gè)節(jié)點(diǎn)權(quán)重賦初值;
  2. 將輸入樣本中隨機(jī)選取輸入向量,找到與輸入向量距離最小的權(quán)重向量;
  3. 定義獲勝單元,在獲勝單元的鄰近區(qū)域調(diào)整權(quán)重使其向輸入向量靠攏;
  4. 提供新樣本、進(jìn)行訓(xùn)練;
  5. 收縮鄰域半徑、減小學(xué)習(xí)率、重復(fù),直到小于允許值,輸出聚類結(jié)果。

2.4 基于密度聚類算法

主要思想:

只要鄰近區(qū)域的密度(對象或數(shù)據(jù)點(diǎn)的數(shù)目)超過某個(gè)閾值,就繼續(xù)聚類

擅于解決不規(guī)則形狀的聚類問題,廣泛應(yīng)用于空間信息處理,SGC,GCHL,DBSCAN算法、OPTICS算法、DENCLUE算法。

DBSCAN:

對于集中區(qū)域效果較好,為了發(fā)現(xiàn)任意形狀的簇,這類方法將簇看做是數(shù)據(jù)空間中被低密度區(qū)域分割開的稠密對象區(qū)域;一種基于高密度連通區(qū)域的基于密度的聚類方法,該算法將具有足夠高密度的區(qū)域劃分為簇,并在具有噪聲的空間數(shù)據(jù)中發(fā)現(xiàn)任意形狀的簇。

2.5 基于網(wǎng)格的聚類算法

基于網(wǎng)格的方法把對象空間量化為有限數(shù)目的單元,形成一個(gè)網(wǎng)格結(jié)構(gòu)。所有的聚類操作都在這個(gè)網(wǎng)格結(jié)構(gòu)(即量化空間)上進(jìn)行。這種方法的主要優(yōu)點(diǎn)是它的處理 速度很快,其處理速度獨(dú)立于數(shù)據(jù)對象的數(shù)目,只與量化空間中每一維的單元數(shù)目有關(guān)。但這種算法效率的提高是以聚類結(jié)果的精確性為代價(jià)的。經(jīng)常與基于密度的算法結(jié)合使用。

代表算法有STING算法、CLIQUE算法、WAVE-CLUSTER算法等。

2.6 新發(fā)展的方法

基于約束的方法:

真實(shí)世界中的聚類問題往往是具備多種約束條件的 , 然而由于在處理過程中不能準(zhǔn)確表達(dá)相應(yīng)的約束條件、不能很好地利用約束知識進(jìn)行推理以及不能有效利用動態(tài)的約束條件 , 使得這一方法無法得到廣泛的推廣和應(yīng)用。這里的約束可以是對個(gè)體對象的約束 , 也可以是對聚類參數(shù)的約束 , 它們均來自相關(guān)領(lǐng)域的經(jīng)驗(yàn)知識。該方法的一個(gè)重要應(yīng)用在于對存在障礙數(shù)據(jù)的二維空間數(shù)據(jù)進(jìn)行聚類。 COD (Clustering with Ob2structed Distance) 就是處理這類問題的典型算法 , 其主要思想是用兩點(diǎn)之間的障礙距離取代了一般的歐氏距離來計(jì)算其間的最小距離。

基于模糊的聚類方法:

基于模糊集理論的聚類方法,樣本以一定的概率屬于某個(gè)類。比較典型的有基于目標(biāo)函數(shù)的模糊聚類方法、基于相似性關(guān)系和模糊關(guān)系的方法、基于模糊等價(jià)關(guān)系的傳遞閉包方法、基于模 糊圖論的最小支撐樹方法,以及基于數(shù)據(jù)集的凸分解、動態(tài)規(guī)劃和難以辨別關(guān)系等方法。

FCM模糊聚類算法流程:

  1. 標(biāo)準(zhǔn)化數(shù)據(jù)矩陣;
  2. 建立模糊相似矩陣,初始化隸屬矩陣;
  3. 算法開始迭代,直到目標(biāo)函數(shù)收斂到極小值;
  4. 根據(jù)迭代結(jié)果,由最后的隸屬矩陣確定數(shù)據(jù)所屬的類,顯示最后的聚類結(jié)果。

基于粒度的聚類方法:

基于粒度原理,研究還不完善。

量子聚類:

受物理學(xué)中量子機(jī)理和特性啟發(fā),可以用量子理論解決聚類記過依賴于初值和需要指定類別數(shù)的問題。一個(gè)很好的例子就是基于相關(guān)點(diǎn)的 Pott 自旋和統(tǒng)計(jì)機(jī)理提出的量子聚類模型。它把聚類問題看做一個(gè)物理系統(tǒng)。并且許多算例表明,對于傳統(tǒng)聚類算法無能為力的幾種聚類問題,該算法都得到了比較滿意的結(jié)果。

核聚類:

核聚類方法增加了對樣本特征的優(yōu)化過程,利用 Mercer 核 把輸入空間的樣本映射到高維特征空間,并在特征空間中進(jìn)行聚類。核聚類方法是普適的,并在性能上優(yōu)于經(jīng)典的聚類算法,它通過非線性映射能夠較好地分辨、提 取并放大有用的特征,從而實(shí)現(xiàn)更為準(zhǔn)確的聚類;同時(shí),算法的收斂速度也較快。在經(jīng)典聚類算法失效的情況下,核聚類算法仍能夠得到正確的聚類。代表算法有SVDD算法,SVC算法。

譜聚類:

首先根據(jù)給定的樣本數(shù)據(jù)集定義一個(gè)描述成對數(shù)據(jù)點(diǎn)相似度的親合矩陣,并計(jì)算矩陣的特征值和特征向量,然后選擇合適的特征向量聚類不同的數(shù)據(jù)點(diǎn)。譜聚類算法最初用于計(jì)算機(jī)視覺、VLSI設(shè)計(jì)等領(lǐng)域,最近才開始用于機(jī)器學(xué)習(xí)中,并迅速成為國際上機(jī)器學(xué)習(xí)領(lǐng)域的研究熱點(diǎn)。

譜聚類算法建立在圖論中的譜圖理論基礎(chǔ)上,其本質(zhì)是將聚類問題轉(zhuǎn)化為圖的最優(yōu)劃分問題,是一種點(diǎn)對聚類算法。

 

聚類算法簡要分類架構(gòu)圖

常用算法特點(diǎn)對比表 

常用算法特點(diǎn)對比表 

3. 簡單的代碼示例 

 

4. 學(xué)習(xí)資料

聚類算法屬于機(jī)器學(xué)習(xí)或數(shù)據(jù)挖掘領(lǐng)域內(nèi),范疇比較小,一般都算作機(jī)器學(xué)習(xí)的一部分或數(shù)據(jù)挖掘領(lǐng)域中的一類算法,可結(jié)合機(jī)器學(xué)習(xí)進(jìn)行學(xué)習(xí)。

Scikit Learn:Python的基于NumPy和SciPy的機(jī)器學(xué)習(xí)庫。

Stanford Machine Learning:斯坦福的機(jī)器學(xué)習(xí)課程,在Coursera上觀看,這門課是由 Andrew Ng講解的,講解非常好。

A List of Data Science and Machine Learning Resources:高手整理的學(xué)習(xí)資源列表。

 

 

責(zé)任編輯:龐桂玉 來源: THU數(shù)據(jù)派
相關(guān)推薦

2022-04-18 09:16:47

層次聚類Python代碼

2019-03-27 09:00:00

人工智能AI算法

2023-03-03 08:26:32

負(fù)載均衡算法服務(wù)

2023-12-22 19:59:15

2021-08-04 16:06:45

DataOps智領(lǐng)云

2018-05-28 15:33:09

無監(jiān)督學(xué)習(xí)算法Python

2018-09-28 14:06:25

前端緩存后端

2022-09-22 09:00:46

CSS單位

2025-04-03 10:56:47

2022-11-06 21:14:02

數(shù)據(jù)驅(qū)動架構(gòu)數(shù)據(jù)

2022-07-05 06:30:54

云網(wǎng)絡(luò)網(wǎng)絡(luò)云原生

2023-05-20 17:58:31

低代碼軟件

2023-11-27 17:35:48

ComponentWeb外層

2022-10-20 08:01:23

2022-07-26 00:00:03

語言模型人工智能

2021-12-29 18:00:19

無損網(wǎng)絡(luò)網(wǎng)絡(luò)通信網(wǎng)絡(luò)

2022-12-01 17:23:45

2021-02-05 05:26:33

字節(jié)ASCII控制

2020-12-30 09:05:24

架構(gòu)微內(nèi)核系統(tǒng)

2017-05-04 20:29:12

HTTP服務(wù)器TCP
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號