k Means聚類原理及實現

2021-10-06 05:49:52 字數 4267 閱讀 2135

吸收天地之精華,為了完成對資料聚類的任務,廣泛查閱各種資料,現總結如下:

聚類分析是沒有給定劃分類別的情況下,根據樣本相似度進行樣本分組的一種方法,是一種非監督的學習演算法。聚類的輸入是一組未被標記的樣本,聚類根據資料自身的距離或相似度劃分為若干組,劃分的原則是組內距離最小化而組間距離最大化,如下圖所示:

常見的聚類分析演算法如下:

k-means: k-均值聚類也稱為快速聚類法,在最小化誤差函式的基礎上將資料劃分為預定的類數k。該演算法原理簡單並便於處理大量資料。

k-中心點:k-均值演算法對孤立點的敏感性,k-中心點演算法不採用簇中物件的平均值作為簇中心,而選用簇中離平均值最近的物件作為簇中心。

系統聚類:也稱為層次聚類,分類的單位由高到低呈樹形結構,且所處的位置越低,其所包含的物件就越少,但這些物件間的共同特徵越多。該聚類方法只適合在小資料量的時候使用,資料量大的時候速度會非常慢。

下面我們詳細介紹k-means聚類演算法。

k-means演算法是典型的基於距離的非層次聚類演算法,在最小化誤差函式的基礎上將資料劃分為預定的類數k,採用距離作為相似性的評價指標,即認為兩個物件的距離越近,其相似度就越大。

選擇k個點作為初始質心

repeat

將每個點指派到最近的質心,形成k個簇

重新計算每個簇的質心

until 簇不發生變化或達到最大迭代次數

與層次聚類結合,經常會產生較好的聚類結果的乙個有趣策略是,首先採用層次凝聚演算法決定結果粗的數目,並找到乙個初始聚類,然後用迭代重定位來改進該聚類。

常見的方法是隨機的選取初始質心,但是這樣簇的質量常常很差。

(1)多次執行,每次使用一組不同的隨機初始質心,然後選取具有最小sse(誤差的平方和)的簇集。這種策略簡單,但是效果可能不好,這取決於資料集和尋找的簇的個數。

(2)取乙個樣本,並使用層次聚類技術對它聚類。從層次聚類中提取k個簇,並用這些簇的質心作為初始質心。該方法通常很有效,但僅對下列情況有效:樣本相對較小;k相對於樣本大小較小。

(3)取所有點的質心作為第乙個點。然後,對於每個後繼初始質心,選擇離已經選取過的初始質心最遠的點。使用這種方法,確保了選擇的初始質心不僅是隨機的,而且是散開的。但是,這種方法可能選中離群點。

常用的距離度量方法包括:歐幾里得距離和余弦相似度。歐幾里得距離度量會受指標不同單位刻度的影響,所以一般需要先進行標準化,同時距離越大,個體間差異越大;空間向量余弦夾角的相似度度量不會受指標刻度的影響,余弦值落於區間[-1,1],值越大,差異越小。

對於距離度量不管是採用歐式距離還是採用余弦相似度,簇的質心都是其均值。

一般是目標函式達到最優或者達到最大的迭代次數即可終止。對於不同的距離度量,目標函式往往不同。當採用歐式距離時,目標函式一般為最小化物件到其簇質心的距離的平方和;當採用余弦相似度時,目標函式一般為最大化物件到其簇質心的余弦相似度和。

如果所有的點在指派步驟都未分配到某個簇,就會得到空簇。如果這種情況發生,則需要某種策略來選擇乙個替補質心,否則的話,平方誤差將會偏大。

(1)選擇乙個距離當前任何質心最遠的點。這將消除當前對總平方誤差影響最大的點。

(2)從具有最大sse的簇中選擇乙個替補的質心,這將**簇並降低聚類的總sse。如果有多個空簇,則該過程重複多次。

k-menas演算法試圖找到使平方誤差準則函式最小的簇。當潛在的簇形狀是凸面的,簇與簇之間區別較明顯,且簇大小相近時,其聚類結果較理想。對於處理大資料集合,該演算法非常高效,且伸縮性較好。

但該演算法除了要事先確定簇數k和對初始聚類中心敏感外,經常以區域性最優結束,同時對「雜訊」和孤立點敏感,並且該方法不適於發現非凸面形狀的簇或大小差別很大的簇。

克服缺點的方法:使用盡量多的資料;使用中位數代替均值來克服outlier的問題。

例項解析

>>> import pandas as pd

# 載入sklearn包自帶資料集

>>> from sklearn.datasets importload_iris

>>> iris = load_iris()

# 需要聚類的資料150個樣本,4個變數

>>> iris.data

>>> data = pd.dataframe(iris.data)

# 資料標準化(z-score)

>>> data_zs = (data -data.mean())/data.std()

# 匯入sklearn中的kmeans

>>> from sklearn.cluster importkmeans

# 設定類數k

>>> k = 3

# 設定最大迭代次數

>>> iteration = 500

# 建立kmeans物件

>>> model = kmeans(n_clusters=k,n_jobs=4,max_iter=iteration)

# 使用資料訓練訓練model

>>> model.fit(data_zs)

# 每個類別樣本個數

>>> pd.series(model.labels_).value_counts()

# 每個類別的聚類中心

>>> pd.dataframe(model.cluster_centers_)

下面我們用tsne(高維資料視覺化工具)對聚類結果進行視覺化

>>> import matplotlib.pyplot asplt

>>> from sklearn.manifold importtsne

>>> tsne = tsne(learning_rate=100)

# 對資料進行降維

>>> tsne.fit_transform(data_zs)

>>> data =pd.dataframe(tsne.embedding_, index=data_zs.index)

# 不同類別用不同顏色和樣式繪圖

>>> d = data[model.labels_==0]

>>> plt.plot(d[0],d[1],'r.')

>>> d = data[model.labels_==1]

>>> plt.plot(d[0],d[1],'go')

>>> d = data[model.labels_==2]

>>> plt.plot(d[0],d[1],'b*')

>>> plt.show()

聚類效果圖如下:

下面我們用pca降維後,對聚類結果進行視覺化

>>> from sklearn.decompositionimport pca

>>> pca = pca()

>>> data =pca.fit_transform(data_zs)

>>> data = pd.dataframe(data,index=data_zs.index)

>>> d = data[model.labels_==0]

>>> plt.plot(d[0],d[1],'r.')

>>> d = data[model.labels_==1]

>>> plt.plot(d[0],d[1],'go')

>>> d = data[model.labels_==2]

>>> plt.plot(d[0],d[1],'b*')

>>> plt.show()

聚類效果圖如下:

kmeans: k均值聚類;

affinitypropagation: 吸引力傳播聚類,2023年提出,幾乎優於所有其他方法,不需要指定聚類數k,但執行效率較低;

meanshift:均值漂移聚類演算法;

spectralclustering:譜聚類,具有效果比kmeans好,速度比kmeans快等特點;

5.** agglomerativeclustering**:層次聚類,給出一棵聚類層次樹;

dbscan:具有噪音的基於密度的聚類方法;

birch:綜合的層次聚類演算法,可以處理大規模資料的聚類。

這些方法的使用大同小異,基本都是先用對應的函式建立模型,然後用fit()方法來訓練模型,訓練好之後,就可以用labels_屬性得到樣本資料的標籤,或者用predict()方法**新樣本的標籤。

參考自:

K Means聚類演算法的原理及實現

1 如何理解k means演算法?2 如何尋找k值及初始質心?3 如何應用k means演算法處理資料?k means是聚類演算法中的一種,其中k表示類別數,means表示均值。顧名思義k means是一種通過均值對資料點進行聚類的演算法。k means演算法通過預先設定的k值及每個類別的初始質心對...

K means聚類演算法原理及c 實現

聚類是指根據資料本身的特徵對資料進行分類,不需要人工標註,是無監督學習的一種。k means演算法是聚類演算法中最簡單的演算法之一。k means 演算法將n個資料物件劃分為 k個聚類以便使得所獲得的聚類滿足 同一聚類中的物件相似度較高 而不同聚類中的物件相似度較小。聚類相似度是利用各聚類中物件的均...

kmeans聚類及Matlab實現

kmeans k均值聚類 是一種常用的聚類演算法,因其簡單且效能還算良好而受廣泛應用。kmeans聚類的中心思想是 確定k個類,計算模式特徵向量到每個聚類中心的 距離 將特徵向量歸併到距離最小的聚類中心所在的類中。把每一類的平均向量特徵的均值作為新的類心。最後,使得樣本與類均值的誤差平方和最小。步驟...