AP聚類演算法原理

2021-08-07 21:58:26 字數 1469 閱讀 3099

ap演算法在開始時,將所有的節點都看成潛在的聚類中心,然後通過節點之間的通訊找到最合適的聚類中心。

輸入為節點間的相似度矩陣s:

其中s(i,j)表示節點i與節點j之間的相似度,也表明了j作為i的聚類中心的合適程度。

s(k,k)表示節點k作為k的聚類中心的合適程度,即節點k成為聚類中心的合適程度。

在最開始的時候,這個值是初始化時使用者給定的值,會影響到最後的聚類數量

ap節點之間傳遞訊息為兩類:吸引度和歸屬度

首先,吸引度是節點i向節點k的資訊,傳遞了節點k對節點i的吸引度,記為r(i,k)

首先我們有相似度矩陣記錄了k成為i的聚類中心的合適程度s(i,k),那麼這裡我們只需要證明k比其他節點更適合就可以了,對於其他節點k』,我們有s(i,k』)表示節點k『作為節點i的聚類中心的合適度。

那麼再定義乙個a(i,k』)表示i對於節點k』的認可度(歸屬度)

這兩個值相加,a(i,k『)+s(i,k』)就可以計算出節點k『作為節點i的聚類中心的合適程度。

這裡,在所有其他節點節點k』中找到最大的a(i,k『)+s(i,k』)即,max

再使用s(i,k)-max就可以得到k對於i的吸引度了:r(i,k)=s(i,k)-max

接下來計算上面提到的歸屬度a(i,k),表示了節點i選擇節點k作為它的聚類中心的合適程度。

思想:如果節點k作為其他節點i『的聚類中心的合適程度很大,那麼節點k作為節點i的聚類中心的合適程度也可能很大。

然後就可以先計算節點k對其他節點的吸引度r(i』,k)然後做乙個累加和表示節點k對其他節點的吸引度:∑max

然後再加上r(k,k)這裡為什麼要加上r(k,k),根據吸引度公式我們可以看出,其他r(k,k)反應的是節點k有多不適合被劃分到其他聚類中心。

即,a(i,k)=min}

a(k,k)=∑max主要反應了k作為聚類中心的能力

以選舉代表為例:

s(i,k)就相當於i對選k這個人的乙個固有的偏好

r(i,k)表示s(i,k)減去最強競爭對手的評分,可以理解為k對i這個選民的競爭中的優勢程度

r(i,k)的更新過程對應選民i對各個參選人的挑選(超出眾超有吸引力)

a(i,k):從公式裡可以看到,所有r(i『,k)>0的值都對a有正的加成

即,選民i通過網上關於k的民意調查看到:有很多人(i』)都覺得k不錯(r(i『,k)>0),那麼選民i也就會相應的覺得k不錯,是個可以相信的選擇。

a(i,k)的更新過程對應關於參選人k的民意調查對於選民i的影響。(已經有很多跟隨者的人更有吸引力)

兩者交替的過程也就可以理解為選民在各個參選人之間不斷的比較和不斷的參考各個參選人給出的民意調查

r(i,k)的思想反應的是競爭,a(i,k)這是為了讓聚類更加成功。

AP聚類演算法學習

最近看一篇 發現了這個聚類演算法,在網上找了點資料,怕自己忘了,在這裡將資料整理一下。宣告 下面這段文字 首先簡要介紹一下ap演算法,跟其他聚類演算法的不同之處是,ap在開始時,將所有節點都看成潛在的聚類中心,然後通過節點之間的通訊,去找出最合適的聚類中心,並將其他節點劃分到這些中心下去,所以我們可...

OPTICS聚類演算法原理

optics聚類演算法是基於密度的聚類演算法,全稱是ordering points to identify the clustering structure,目標是將空間中的資料按照密度分布進行聚類,其思想和dbscan非常類似,但是和dbscan不同的是,optics演算法可以獲得不同密度的聚類,...

K Means聚類演算法原理

k means演算法是無監督的聚類演算法,它實現起來比較簡單,聚類效果也不錯,因此應用很廣泛。k means演算法有大量的變體,本文就從最傳統的k means演算法講起,在其基礎上講述k means的優化變體方法。包括初始化優化k means 距離計算優化elkan k means演算法和大資料情況...