自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

機器理解大數(shù)據(jù)的秘密:聚類算法深度詳解

開發(fā) 開發(fā)工具 算法
在本文中,我將給出每種聚類算法的概述、工作方式的簡單介紹和一個更細(xì)節(jié)的逐步實現(xiàn)的案例。

在理解大數(shù)據(jù)方面,聚類是一種很常用的基本方法。近日,數(shù)據(jù)科學(xué)家兼程序員 Peter Gleeson 在 freeCodeCamp 發(fā)布了一篇深度講解文章,對一些聚類算法進行了基礎(chǔ)介紹,并通過簡單而詳細(xì)的例證對其工作過程進行了解釋說明。

看看下面這張圖,有各種各樣的蟲子和蝸牛,你試試將它們分成不同的組別?

不是很難吧,先從找出其中的蜘蛛開始吧!

機器理解大數(shù)據(jù)的秘密:聚類算法深度詳解

完成了嗎?盡管這里并不一定有所謂的「正確答案」,但一般來說我們可以將這些蟲子分成四組:蜘蛛、蝸牛、蝴蝶/飛蛾、蜜蜂/黃蜂。

很簡單吧?即使蟲子數(shù)量再多一倍你也能把它們分清楚,對嗎?你只需要一點時間以及對昆蟲學(xué)的熱情就夠了——其實就算有成千上萬只蟲子你也能將它們分開。

但對于一臺機器而言,將這 10 個對象分類成幾個有意義的分組卻并不簡單——在一門叫做組合學(xué)(combinatorics)的數(shù)學(xué)分支的幫助下,我們知道對于這 10 只蟲子,我們可以有 115,975 種不同的分組方式。如果蟲子數(shù)量增加到 20,那它們可能的分組方法將超過 50 萬億種。要是蟲子數(shù)量達(dá)到 100,那可能的方案數(shù)量將超過已知宇宙中的粒子的數(shù)量。超過多少呢?據(jù)我計算,大約多 500,000,000,000,000,000,000,000,000,000,000,000 倍,已是難以想象的超天文數(shù)字!

但其中大多數(shù)分組方案都是無意義的,在那些浩如煙海的分組選擇中,你只能找到少量有用的蟲子分組的方法。

而我們?nèi)祟惪梢宰龅煤芸?,我們往往會把自己快速分組和理解大量數(shù)據(jù)的能力看作是理所當(dāng)然。不管那是一段文本,還是屏幕上圖像,或是對象序列,人類通常都能有效地理解自己所面對的數(shù)據(jù)。

鑒于人工智能和機器學(xué)習(xí)的關(guān)鍵就是快速理解大量輸入數(shù)據(jù),那在開發(fā)這些技術(shù)方面有什么捷徑呢?在本文中,你將閱讀到三種聚類算法——機器可以用其來快速理解大型數(shù)據(jù)集。當(dāng)然,除此之外還有其它的算法,但希望這里的介紹能給你一個良好的開始!

在本文中,我將給出每種聚類算法的概述、工作方式的簡單介紹和一個更細(xì)節(jié)的逐步實現(xiàn)的案例。我相信這能幫助你理解這些算法。

3 個齊整的聚類,K=3

3 個齊整的聚類,K=3

一、K-均值聚類(K-means clustering)

1. 何時使用?

當(dāng)你事先知道你將找到多少個分組的時候?

2. 工作方式

該算法可以隨機將每個觀察(observation)分配到 k 類中的一類,然后計算每個類的平均。接下來,它重新將每個觀察分配到與其最接近的均值的類別,然后再重新計算其均值。這一步不斷重復(fù),直到不再需要新的分配為止。

3. 有效案例

假設(shè)有一組 9 位足球運動員,他們中每個人都在這一賽季進了一定數(shù)量的球(假設(shè)在 3-30 之間)。然后我們要將他們分成幾組——比如 3 組。

第一步:需要我們將這些運動員隨機分成 3 組并計算每一組的均值。

第 1 組

  • 運動員 A(5 個球)、運動員 B(20 個球)、運動員 C(11 個球)
  • 該組平均=(5 + 20 + 11) / 3 = 12

第 2 組

  • 運動員 D(5 個球)、運動員 E(9 個球)、運動員 F(19 個球)
  • 該組平均=11

第 3 組

  • 運動員 G(30 個球)、運動員 H(3 個球)、運動員 I(15 個球)
  • 該組平均=16

第二步:對于每一位運動員,將他們重新分配到與他們的分?jǐn)?shù)最接近的均值的那一組;比如,運動員 A(5 個球)被重新分配到第 2 組(均值=11)。然后再計算新的均值。

第 1 組(原來的均值=12)

  • 運動員 C(11 個球)、運動員 E(9 個球)
  • 新的平均=(11 + 9) / 2 = 10

第 2 組(原來的均值=11)

  • 運動員 A(5 個球)、運動員 D(5 個球)、運動員 H(3 個球)
  • 新的平均=4.33

第 3 組(原來的均值=16)

  • 運動員 B(20 個球)、運動員 F(19 個球)、運動員 G(30 個球)、運動員 I(15 個球)
  • 新的平均=21

不斷重復(fù)第二步,直到每一組的均值不再變化。對于這個簡單的任務(wù),下一次迭代就能達(dá)到我們的目標(biāo)?,F(xiàn)在就完成了,你已經(jīng)從原數(shù)據(jù)集得到了 3 個聚類!

第 1 組(原來的均值=10)

  • 運動員 C(11 個球)、運動員 E(9 個球)、運動員 I(15 個球)
  • 最終平均=11.3

第 2 組(原來的均值=4.33)

  • 運動員 A(5 個球)、運動員 D(5 個球)、運動員 H(3 個球)
  • 最終平均=4.33

第 3 組(原來的均值=21)

  • 運動員 B(20 個球)、運動員 F(19 個球)、運動員 G(30 個球)、
  • 最終平均=23

通過這個例子,該聚類可能能夠?qū)?yīng)這些運動員在球場上的位置——比如防守、中場和進攻。K-均值在這里有效,是因為我們可以合理地預(yù)測這些數(shù)據(jù)會自然地落到這三個分組中。

以這種方式,當(dāng)給定一系列表現(xiàn)統(tǒng)計的數(shù)據(jù)時,機器就能很好地估計任何足球隊的隊員的位置——可用于體育分析,也能用于任何將數(shù)據(jù)集分類為預(yù)定義分組的其它目的的分類任務(wù)。

4. 更加細(xì)微的細(xì)節(jié):

上面所描述的算法還有一些變體。最初的「種子」聚類可以通過多種方式完成。這里,我們隨機將每位運動員分成了一組,然后計算該組的均值。這會導(dǎo)致最初的均值可能會彼此接近,這會增加后面的步驟。

另一種選擇種子聚類的方法是每組僅一位運動員,然后開始將其他運動員分配到與其最接近的組。這樣返回的聚類是更敏感的初始種子,從而減少了高度變化的數(shù)據(jù)集中的重復(fù)性。但是,這種方法有可能減少完成該算法所需的迭代次數(shù),因為這些分組實現(xiàn)收斂的時間會變得更少。

K-均值聚類的一個明顯限制是你必須事先提供預(yù)期聚類數(shù)量的假設(shè)。目前也存在一些用于評估特定聚類的擬合的方法。比如說,聚類內(nèi)平方和(Within-Cluster Sum-of-Squares)可以測量每個聚類內(nèi)的方差。聚類越好,整體 WCSS 就越低。

二、層次聚類(Hierarchical clustering)

1. 何時使用?

當(dāng)我們希望進一步挖掘觀測數(shù)據(jù)的潛在關(guān)系,可以使用層次聚類算法。

2. 工作方式

首先我們會計算距離矩陣(distance matrix),其中矩陣的元素(i,j)代表觀測值 i 和 j 之間的距離度量。然后將最接近的兩個觀察值組為一對,并計算它們的平均值。通過將成對觀察值合并成一個對象,我們生成一個新的距離矩陣。具體合并的過程即計算每一對最近觀察值的均值,并填入新距離矩陣,直到所有觀測值都已合并。

3. 有效案例:

以下是關(guān)于鯨魚或海豚物種分類的超簡單數(shù)據(jù)集。作為受過專業(yè)教育的生物學(xué)家,我可以保證通常我們會使用更加詳盡的數(shù)據(jù)集構(gòu)建系統(tǒng)?,F(xiàn)在我們可以看看這六個物種的典型體長。本案例中我們將使用 2 次重復(fù)步驟。

關(guān)于鯨魚或海豚物種分類的超簡單數(shù)據(jù)集

步驟一:計算每個物種之間的距離矩陣,在本案例中使用的是歐氏距離(Euclidean distance),即數(shù)據(jù)點(data point)間的距離。你可以像在道路地圖上查看距離圖一樣計算出距離。我們可以通過查看相關(guān)行和列的交叉點值來查閱任一兩物種間的長度差。

關(guān)于鯨魚或海豚物種分類的超簡單數(shù)據(jù)集

步驟二:將兩個距離最近的物種挑選出來,在本案例中是寬吻海豚和灰海豚,他們平均體長達(dá)到了 3.3m。重復(fù)第一步,并再一次計算距離矩陣,但這一次將寬吻海豚和灰海豚的數(shù)據(jù)使用其均值長度 3.3m 代替。

關(guān)于鯨魚或海豚物種分類的超簡單數(shù)據(jù)集

接下來,使用新的距離矩陣重復(fù)步驟二?,F(xiàn)在,最近的距離成了領(lǐng)航鯨與逆戟鯨,所以我們計算其平均長度(7.0m),并合并成新的一項。

隨后我們再重復(fù)步驟一,再一次計算距離矩陣,只不過現(xiàn)在將領(lǐng)航鯨與逆戟鯨合并成一項且設(shè)定長度為 7.0m。

將領(lǐng)航鯨與逆戟鯨合并成一項且設(shè)定長度為 7.0m

我們再一次使用現(xiàn)在的距離矩陣重復(fù)步驟 2。最近的距離(3.7m)出現(xiàn)在兩個已經(jīng)合并的項,現(xiàn)在我們將這兩項合并成為更大的一項(均值為 5.2m)。

緊接著,我們再一次重復(fù)步驟 2,最小距離(5.0m)出現(xiàn)在座頭鯨與長須鯨中,所以繼續(xù)合并它們?yōu)橐豁棧⒂嬎憔?17.5m)。

返回到步驟 1,計算新的距離矩陣,其中座頭鯨與長須鯨已經(jīng)合并為一項。

座頭鯨與長須鯨已經(jīng)合并為一項

最后,重復(fù)步驟 2,距離矩陣中只存在一個值(12.3m),我們將所有的都合成為了一項,并且現(xiàn)在可以停止這一循環(huán)過程。先讓我們看看最后的合并項。

現(xiàn)在其有一個嵌套結(jié)構(gòu)(參考 JSON),該嵌套結(jié)構(gòu)能繪制成一個樹狀圖。其和家族系譜圖的讀取方式相近。在樹型圖中,兩個觀察值越近,它們就越相似和密切相關(guān)。

一個在 R-Fiddle.org 生成的樹狀圖

通過樹型圖的結(jié)構(gòu),我們能更深入了解數(shù)據(jù)集的結(jié)構(gòu)。在上面的案例中,我們看到了兩個主要的分支,一個分支是 HW 和 FW,另一個是 BD、RD、PW、KW。

在生物進化學(xué)中,通常會使用包含更多物種和測量的大型數(shù)據(jù)集推斷這些物種之間的分類學(xué)關(guān)系。在生物學(xué)之外,層次聚類也在機器學(xué)習(xí)和數(shù)據(jù)挖掘中使用。

重要的是,使用這種方法并不需要像 K-均值聚類那樣設(shè)定分組的數(shù)量。你可以通過給定高度「切割」樹型以返回分割成的集群。高度的選擇可以通過幾種方式進行,其取決于我們希望對數(shù)據(jù)進行聚類的分辨率。

例如上圖,如果我們在高度等于 10 的地方畫一條線,就將兩個主分支切開分為兩個子圖。如果我們從高度等于 2 的地方分割,就會生成三個聚類。

4. 更多細(xì)節(jié):

對于這里給出的層次聚類算法(hierarchical clustering algorithms),其有三個不同的方面。

最根本的方法就是我們所使用的集聚(agglomerative)過程,通過該過程,我們從單個數(shù)據(jù)點開始迭代,將數(shù)據(jù)點聚合到一起,直到成為一個大型的聚類。另外一種(更高計算量)的方法從巨型聚類開始,然后將數(shù)據(jù)分解為更小的聚類,直到獨立數(shù)據(jù)點。

還有一些可以計算距離矩陣的方法,對于很多情況下,歐幾里德距離(參考畢達(dá)哥拉斯定理)就已經(jīng)夠了,但還有一些可選方案在特殊的情境中更加適用。

最后,連接標(biāo)準(zhǔn)(linkage criterion)也可以改變。聚類根據(jù)它們不同的距離而連接,但是我們定義「近距離」的方式是很靈活的。在上面的案例中,我們通過測量每一聚類平均值(即形心(centroid))之間的距離,并與最近的聚類進行配對。但你也許會想用其他定義。

例如,每個聚類有幾個離散點組成。我們可以將兩個聚類間的距離定義為任意點間的最小(或最大)距離,就如下圖所示。還有其他方法定義連接標(biāo)準(zhǔn),它們可能適應(yīng)于不同的情景。

紅/藍(lán):形心連接;紅/綠:最小連接;綠/藍(lán):最大連接

紅/藍(lán):形心連接;紅/綠:最小連接;綠/藍(lán):最大連接

三、圖團體檢測(Graph Community Detection)

1. 何時使用?

當(dāng)你的數(shù)據(jù)可以被表示為一個網(wǎng)絡(luò)或圖(graph)時。

2. 工作方式

圖團體(graph community)通常被定義為一種頂點(vertice)的子集,其中的頂點相對于網(wǎng)絡(luò)的其它部分要連接得更加緊密。存在多種用于識別圖的算法,基于更具體的定義,其中包括(但不限于):Edge Betweenness、Modularity-Maximsation、Walktrap、Clique Percolation、Leading Eigenvector……

3. 有效案例

圖論是一個研究網(wǎng)絡(luò)的數(shù)學(xué)分支,參考機器之心文章《想了解概率圖模型?你要先理解圖論的基本定義與形式》。使用圖論的方法,我們可以將復(fù)雜系統(tǒng)建模成為「頂點(vertice)」和「邊(edge)」的抽象集合。

也許最直觀的案例就是社交網(wǎng)絡(luò)。其中的頂點表示人,連接頂點的邊表示他們是朋友或互粉的用戶。

但是,要將一個系統(tǒng)建模成一個網(wǎng)絡(luò),你必須要找到一種有效連接各個不同組件的方式。將圖論用于聚類的一些創(chuàng)新應(yīng)用包括:對圖像數(shù)據(jù)的特征提取、分析基因調(diào)控網(wǎng)絡(luò)(gene regulatory networks)。

下面給出了一個入門級的例子,這是一個簡單直接的圖,展示了我最近瀏覽過的 8 個網(wǎng)站,根據(jù)他們的維基百科頁面中的鏈接進行了連接。這個數(shù)據(jù)很簡單,你可以人工繪制,但對于更大規(guī)模的項目,更快的方式是編寫 Python 腳本。這里是我寫的一個:

https://raw.githubusercontent.com/pg0408/Medium-articles/master/graph_maker.py

用 R 語言 3.3.3 版中的 igraph 繪制的圖

用 R 語言 3.3.3 版中的 igraph 繪制的圖

這些頂點的顏色表示了它們的團體關(guān)系,大小是根據(jù)它們的中心度(centrality)確定的。可以看到谷歌和 Twitter 是最中心的吧?

另外,這些聚類在現(xiàn)實生活中也很有意義(一直是一個重要的表現(xiàn)指標(biāo))。黃色頂點通常是參考/搜索網(wǎng)站,藍(lán)色頂點全部是在線發(fā)布網(wǎng)站(文章、微博或代碼),而橙色頂點是 YouTube 和 PayPal——因為 YouTube 是由前 PayPal 員工創(chuàng)立的。機器還算總結(jié)得不錯!

除了用作一種有用的可視化大系統(tǒng)的方式,網(wǎng)絡(luò)的真正力量是它們的數(shù)學(xué)分析能力。讓我們將上面圖片中的網(wǎng)絡(luò)翻譯成更數(shù)學(xué)的形式吧。下面是該網(wǎng)絡(luò)的鄰接矩陣(adjacency matrix):

網(wǎng)絡(luò)的鄰接矩陣(adjacency matrix)

每行和每列的交點處的值表示對應(yīng)的頂點對之間是否存在邊。比如說,在 Medium 和 Twitter 之間有一條邊,所以它們的行列交點是 1。類似地,Medium 和 PayPal 之間沒有邊,所以它們的行列交點是 0.

該鄰接矩陣編碼了該網(wǎng)絡(luò)的所有屬性——其給了我們開啟所有有價值的見解的可能性的鑰匙。首先,每一行或每一列的數(shù)字相加都能給你關(guān)于每個頂點的程度(degree)——即它連接到了多少個其它頂點,這個數(shù)字通常用字母 k 表示。類似地,將每個頂點的 degree 除以 2,則能得到邊的數(shù)量,也稱為鏈接(link),用 L 表示。行/列的數(shù)量即是該網(wǎng)絡(luò)中頂點的數(shù)量,稱為節(jié)點(node),用 N 表示。

只需要知道 k、L 和 N 以及該鄰接矩陣 A 中每個單元的值,就能讓我們計算出該網(wǎng)絡(luò)的任何給定聚類的模塊性(modularity)。

假設(shè)我們已經(jīng)將該網(wǎng)絡(luò)聚類成了一些團體。我們就可以使用該模塊性分?jǐn)?shù)來評估這個聚類的質(zhì)量。分?jǐn)?shù)更高表示我們將該網(wǎng)絡(luò)分割成了「準(zhǔn)確的(accurate)」團體,而低分則表示我們的聚類更接近隨機。如下圖所示:

假設(shè)我們已經(jīng)將該網(wǎng)絡(luò)聚類成了一些團體

模塊性(modularity)是用于測量分區(qū)的「質(zhì)量」的一種標(biāo)準(zhǔn)

模塊性可以使用以下公式進行計算:

模塊性可以使用以下公式進行計算

這個公式有點復(fù)雜,但我們分解它,讓我們可以更好地理解。

M 就是我們要計算的模塊性。

1/2L 告訴我們將后面的部分除以 2L,即網(wǎng)絡(luò)中邊的數(shù)量的兩倍。

Σ 符號表示求和,并且在該鄰接矩陣 A 中的每一行和列上進行迭代。如果你對這個符號不熟悉,可以將 i, j = 1 和 N 理解成編程語言中的 for-loop。在 Python 里面,可以寫成這樣:

將 i, j = 1 和 N 理解成編程語言中的 for-loop

代碼里面的 #stuff with i and j(帶有 i 和 j 的那一坨)是什么?

括號中的內(nèi)容表示從 A_ij 減去 ( k_i k_j ) / 2L。

A_ij 就是指該鄰接矩陣中第 i 行、第 j 列的值。

k_i 和 k_j 是指每個頂點的 degree——可以通過將每一行和每一列的項加起來而得到。兩者相乘再除以 2L 表示當(dāng)該網(wǎng)絡(luò)是隨機分配的時候頂點 i 和 j 之間的預(yù)期邊數(shù)。

整體而言,括號中的項表示了該網(wǎng)絡(luò)的真實結(jié)構(gòu)和隨機組合時的預(yù)期結(jié)構(gòu)之間的差。研究它的值可以發(fā)現(xiàn),當(dāng) A_ij = 1 且 ( k_i k_j ) / 2L 很小時,其返回的值最高。這意味著,當(dāng)在定點 i 和 j 之間存在一個「非預(yù)期」的邊時,得到的值更高。

最后,我們再將括號中的項和 δc_i, c_j 相乘。δc_i, c_j 就是大名鼎鼎但基本無害的克羅內(nèi)克 δ 函數(shù)(Kronecker-delta function)。下面是其 Python 解釋:

克羅內(nèi)克 δ 函數(shù)(Kronecker-delta function)

是的,就是那么簡單??肆_內(nèi)克 δ 函數(shù)與兩個參數(shù),如何這兩個參數(shù)相等則返回 1,如何不等,則返回 0.

也就是說,如果頂點 i 和 j 已經(jīng)被放進了同一個聚類,那么δc_i, c_j = 1;否則它們不在同一個聚類,函數(shù)返回 0.

當(dāng)我們將括號中的項與克羅內(nèi)克 δ 函數(shù)相乘時,我們發(fā)現(xiàn)對于嵌套求和 Σ,當(dāng)有大量「意外的(unexpected)」連接頂點的邊被分配給同一個聚類時,其結(jié)果是最高的。因此,模塊性是一種用于衡量將圖聚類成不同的團體的程度的方法。

除以 2L 將模塊性的上限值設(shè)置成了 1。模塊性接近或小于 0 表示該網(wǎng)絡(luò)的當(dāng)前聚類沒有用處。模塊性越高,該網(wǎng)絡(luò)聚類成不同團體的程度就越好。通過是模塊性最大化,我們可以找到聚類該網(wǎng)絡(luò)的最佳方法。

注意我們必須預(yù)定義圖的聚類方式,才能找到評估一個聚類有多好的方法。不幸的是,使用暴力計算的方式來嘗試各種可能以尋找最高模塊性分?jǐn)?shù)的聚類方式需要大量計算,即使在一個有限大小的樣本上也是不可能的。

組合學(xué)(combinatorics)告訴我們對于一個僅有 8 個頂點的網(wǎng)絡(luò),就存在 4140 種不同的聚類方式。16 個頂點的網(wǎng)絡(luò)的聚類方式將超過 100 億種。32 個頂點的網(wǎng)絡(luò)的可能聚類方式更是將超過 128 septillion(10^21)種;如果你的網(wǎng)絡(luò)有 80 個頂點,那么其可聚類的方式的數(shù)量就已經(jīng)超過了可觀測宇宙中的原子數(shù)量。

因此,我們必須求助于一種啟發(fā)式的方法,該方法在評估可以產(chǎn)生最高模塊性分?jǐn)?shù)的聚類上效果良好,而且并不需要嘗試每一種可能性。這是一種被稱為 Fast-Greedy Modularity-Maximization(快速貪婪模塊性最大化)的算法,這種算法在一定程度上類似于上面描述的 agglomerative hierarchical clustering algorithm(集聚層次聚類算法)。只是 Mod-Max 并不根據(jù)距離(distance)來融合團體,而是根據(jù)模塊性的改變來對團體進行融合。

下面是其工作方式:

首先初始分配每個頂點到其自己的團體,然后計算整個網(wǎng)絡(luò)的模塊性 M。

第 1 步要求每個團體對(community pair)至少被一條單邊鏈接,如果有兩個團體融合到了一起,該算法就計算由此造成的模塊性改變 ΔM。

第 2 步是取 ΔM 出現(xiàn)了最大增長的團體對,然后融合。然后為這個聚類計算新的模塊性 M,并記錄下來。

重復(fù)第 1 步和 第 2 步——每一次都融合團體對,這樣最后得到 ΔM 的最大增益,然后記錄新的聚類模式及其相應(yīng)的模塊性分?jǐn)?shù) M。

當(dāng)所有的頂點都被分組成了一個巨型聚類時,就可以停止了。然后該算法會檢查這個過程中的記錄,然后找到其中返回了最高 M 值的聚類模式。這就是返回的團體結(jié)構(gòu)。

4. 更多細(xì)節(jié):

哇!這個過程真是有太多計算了,至少對我們?nèi)祟惗允沁@樣。圖論中存在很多計算難題,常常是 NP-hard 問題——但其也在為復(fù)雜系統(tǒng)和數(shù)據(jù)集提供有價值的見解上具有出色的潛力。Larry Page 就知道這一點,其著名的 PageRank 算法就是完全基于圖論的——該算法在幫助谷歌在不到十年之內(nèi)從創(chuàng)業(yè)公司成長為近乎世界主宰的過程中立下了汗馬功勞。

團體檢測(community detection)是現(xiàn)在圖論中一個熱門的研究領(lǐng)域,也存在很多可替代 Modularity-Maximization(盡管很有用,但也有缺點)的方法。

首先,它的聚集方式從指定尺寸的小團體開始,逐漸轉(zhuǎn)向越來越大的。這被稱為分辨率極限(resolution limit)——該算法不會搜索特定尺寸以下的團體。另一個挑戰(zhàn)則是超越一個顯著波峰的表現(xiàn),Mod-Max 方法趨向于制造一個由很多高模塊化分?jǐn)?shù)組成的「高原」,這有時會導(dǎo)致難以確定最大分?jǐn)?shù)。

其他算法使用不同的方式來確定團體。Edge-Betweenness 是一個分裂算法,把所有頂點聚合到一個大集群中。它會持續(xù)迭代去除網(wǎng)絡(luò)中「最不重要」的邊緣數(shù)據(jù),直到所有頂點都被分開為止。這一過程產(chǎn)生了層級結(jié)構(gòu),其中類似的頂點在結(jié)構(gòu)中互相靠近。

另一種算法是 Clique Percolation,它考慮了圖團體之間可能的重疊。而另外一些算法基于圖中的隨機游動,還有譜聚類(spectral clustering)算法:從鄰接矩陣及派生矩陣的特征分解開始。這些方法被應(yīng)用于特征提取任務(wù),如計算機視覺。

給出每個算法的深入應(yīng)用實例超出了本介紹的探究范圍。從數(shù)據(jù)中提取可用信息的有效方法在數(shù)十年前還是難以觸及的事物,但現(xiàn)在已經(jīng)成為了非?;钴S的研究領(lǐng)域。

四、結(jié)論

希望本文能對你有所啟發(fā),讓你更好地理解機器如何了解大數(shù)據(jù)。未來是高速變革的,其中的許多變化將會由下一代或兩代中有能力的技術(shù)所驅(qū)動。

就像導(dǎo)語提到的,機器學(xué)習(xí)是一個非常有前景的研究領(lǐng)域,其中有大量復(fù)雜的問題需要以準(zhǔn)確、有效的方式解決。對人類來說輕而易舉的任務(wù)在由機器完成的時候就需要創(chuàng)新性的解決方案。

在此領(lǐng)域中,我們?nèi)杂写罅康娜蝿?wù)需要完成,無論誰為下一個重大突破貢獻力量,無疑都會得到慷慨的回報?;蛟S正在閱讀這篇文章的某個人就會成為下一個強大的算法發(fā)明者?所有偉大想法都是從零開始的。

原文:

https://medium.freecodecamp.com/how-machines-make-sense-of-big-data-an-introduction-to-clustering-algorithms-4bd97d4fbaba

【本文是51CTO專欄機構(gòu)機器之心的原創(chuàng)譯文,微信公眾號“機器之心( id: almosthuman2014)”】

 

戳這里,看該作者更多好文

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2017-04-07 13:00:49

機器學(xué)習(xí)大數(shù)據(jù)聚類算法

2011-07-25 15:39:49

SQL SERVER數(shù)聚類算法順序聚類算法

2011-07-26 10:16:14

SQL Server數(shù)據(jù)挖掘

2023-05-10 08:00:00

聚類分析數(shù)據(jù)分析聚類算法

2023-12-01 16:27:05

機器學(xué)習(xí)無監(jiān)督學(xué)習(xí)

2019-10-12 10:11:02

數(shù)據(jù)集聚類算法

2017-02-15 10:01:49

大數(shù)據(jù)機器學(xué)習(xí)深度學(xué)習(xí)

2023-10-31 09:00:00

2020-04-29 22:29:04

大數(shù)據(jù)算法應(yīng)用

2021-03-23 14:11:10

大數(shù)據(jù)大數(shù)據(jù)深度算法

2013-03-01 10:45:36

Nike大數(shù)據(jù)

2014-07-02 10:34:08

聚類算法算法

2019-11-04 14:28:55

機器學(xué)習(xí)大數(shù)據(jù)數(shù)據(jù)挖掘

2017-05-15 11:10:10

大數(shù)據(jù)聚類算法

2020-07-09 15:26:18

Python聚類算法語言

2024-10-18 17:14:13

2022-09-07 23:54:17

機器學(xué)習(xí)無監(jiān)督學(xué)習(xí)算法

2020-05-13 15:57:59

聚類分析算法監(jiān)督學(xué)習(xí)

2023-04-02 14:16:45

凸集算法集合

2017-05-23 17:38:05

機器學(xué)習(xí)算法集群
點贊
收藏

51CTO技術(shù)棧公眾號