聚類演算法 k medoids演算法

2021-08-17 16:17:52 字數 567 閱讀 6444

k-means與k-medoids之間的差異就是可以理解為對於資料樣本的平均值和中位數之間的差異:前者的取值範圍可以是連續空間中的任意值,而後者的取值卻只能是資料樣本範圍中的樣本。這個原因就是k-means對於資料樣本的要求太高了,要求所有資料樣本處在乙個歐式空間中,對於有很多雜訊的資料就會造成極大的誤差。同時對於非數值型資料樣本,不能夠計算平均值等實數型變數。

在k-medoids中,相對於k-means的目標函式,我們將目標函式(j)中的歐式距離改寫成了乙個任意的dissimilarity measure函式

其中演算法步驟與k-means類似,只是將平均值為參考點改變成用樣本做參考點,要全部遍歷一遍。

具體如下:

在資料樣本d中隨機選擇k個資料樣本作為質點(參考點)oj(j=1.2.3...k)。

重複地將剩下的樣本點分配到k個簇類當中。

隨機選擇乙個非質點樣本orandom;計算交換物件orandom和o1參考點,重複2中的操作,產生新的一組簇類,計算目標函式s,若s<0則將orandom和o1交換,保留新的簇類,否則,保留原中心點和聚類。重複此步驟直到k個中心點不再變化。

k-medoids變種演算法

k medoids聚類演算法

k mediods每次選取的中心點,必須是樣本點,而 k means每次選取的中心點可以是樣本點之外的點,就好比中位數和平均值的區別 k medoids演算法步驟 1.任意選取k個初始中心點medoids 2.按照與medoids最近的原則,將剩餘點分配到當前最佳的medoids代表的類中 3.在每...

聚類篇 (三)K Medoids聚類

k medoids演算法的基本思想為 對於給定聚類數目k,首先隨機選擇k個代表物件作為初始聚類中心,計算各剩餘物件與代表物件的距離並將其分配給最近的乙個簇,產生相應的聚類結果。然後開始迭代過程 對於每一次迭代,將隨機選擇的乙個非中心點替代原始中心點中的乙個,重新計算聚類結果。若聚類效果有所提高,保留...

聚類演算法 近鄰聚類演算法

time is always too short for those who need it,but for those who love,it lasts forever.dracula untold 近鄰聚類法同樣是一種基於距離閾值的聚類演算法。coding utf 8 近鄰聚類演算法的pyth...