機器學習 非監督演算法

2021-07-24 10:47:08 字數 705 閱讀 6157

1.k-means

k-means 是所謂的爬山演演算法,它非常依賴於你的初始集群中心所處的位置

2. slc 

slc単連鎖聚類,有點像最小生成樹

把圖中黑色的點分成兩簇

3.軟聚類 soft clustering

依賴概率論

4.em演算法

em可以模擬成k-means過程,即

em演算法是軟聚類,開始時屬於乙個簇的概率很高比如0.999996,但屬於另乙個簇的也不是0。

發生的概率小,並不是0

5.非監督演算法的三個屬性

(1) richness 豐富性:任何聚類演算法來說,都有距離

(2) scale-invariance 尺度不變性:尺度距離是個正值,不改變聚類

(3) consistency 一致性:縮小簇內距離,增大簇內距離,不改變簇

看個例子:

不可能定理:這三個屬性不可能同時滿足,kleinberg 的**中已經證明

總結:

機器學習非監督學習 kmeans演算法

前面寫了分類和回歸的一些演算法,這些演算法都屬於監督學習,本篇的要講的kmeans演算法就屬於非監督學習 unsupervised learning 中聚類問題的乙個重要演算法。監督學習與非監督學習有什麼區別呢?監督學習訓練所用的資料樣例都是有類別標記 class label 的,而非監督學習所用的...

監督學習 非監督學習 半監督學習(主動學習)

統計學習通常包括監督學習 非監督學習 半監督學習以及強化學習,在機器學習的領域中前三種研究的比較多的,也是運用的比較廣泛的技術。監督學習的任務是學習乙個模型,使模型對給定的任意的乙個輸入,對其都可以對映出乙個 結果。這裡模型就相當於我們數學中乙個函式,輸入就相當於我們數學中的x,而 的結果就相當於數...

機器學習非監督分類之主成分分析(PCA)

主成分分析是非監督分類中基礎的演算法,應用於降低特徵的維度。在介紹主成分分析之前,我們要先介紹一下特徵值和特徵向量,因為在後面我們要用到。一 特徵值和特徵向量 特徵值如果有 此時 為矩陣a的特徵值,對應的x為矩陣的特徵向量。對於不相同的特徵值,其特徵向量是正交的。二 主成分分析 演算法 首先將x進行...