高斯混合模型 GMM

2021-09-27 06:22:40 字數 1210 閱讀 8839

本文主要針對初次接觸gmm的人,簡單的給出了一些自己初識的一些理解,比較淺顯。

初次真正意義上接觸高斯混合模型(gaussian mixed model,gmm),是因為要用它來進行音訊分類,以音訊訊號特徵為輸入,通過gmm來建模,完成最終的分類。

有乙個說法是gmm是多個高斯分布函式的線性組合。理論上gmm可以擬合出任意型別的分布,我們知道在實際生活中,很少有資料嚴格遵循高斯分布的,而對於同乙個集合下的資料,可能存在多種不同的分布,可以通過採用不同的高斯分布函式來模擬各個分布,最後將這些高斯模型線性組合起來,最終建立整個資料的模型,稱這個模型為gmm。具體文章最後參考資料1中的論述,講得很清晰形象。

單個高斯分布模型(或稱正態分佈模型,gsm)反映了自然界普遍存在的有關變數的一種統計規律,例如身高,考試成績等;而且有很好的數學性質,具有各階導數,變數頻數分布由 μ、σ 完全決定等等,在許多領域得到廣泛應用。在這裡簡單介紹下高斯分布的概率密度分布函式:

gmm是一種是概率模型,在音訊處理的語音識別、音訊分類等方面具有廣泛的應用。gmm的訓練模型形式是p(y|x),輸入是x,輸出是y,訓練後模型得到的輸出是一系列的概率值,對於分類任務輸入x對應於各個不同y(類)的概率,其中概率最大的那個類就是判決結果。

前提:假設樣本分佈是幾個高斯分布的加權和。

參考資料2中,將gmm與k-means演算法進行的模擬講述,還詳細的列出了與k-means演算法的異同點。

gmm建模使用期望值最大(expectation maximization,em)演算法)迭代計算gmm的引數,實現引數估計。

em演算法分兩步,第一步先求出要估計引數的粗略值,第二步使用第一步的值最大化似然函式。

em演算法估計gmm引數的大致思想是

重複步驟(2)和(3),直到演算法收斂,得到最後的gmm引數a,μ和ʃ,此時建模完成。

詳細推導過程及**實現:見參考資料4。

針對任務的型別,gmm可用於分類、擬合和聚類。

高斯混合模型(gmm)及其em演算法的理解

高斯混合模型(gmm)

混合高斯模型演算法

混合高斯模型(gmm)推導及實現

高斯混合模型gmm(gaussian mixture model)

高斯混合模型gmm

混合高斯模型gaussian mixture model(gmm)

em演算法

GMM高斯混合模型

在一般的分類問題中,通常的套路都是提取特徵,將特徵輸入分類器訓練,得到最終的模型。但是在具體操作時,一開始提出的特徵和輸入分類器訓練的特徵是不一樣的。比如假設有n張 100 100 100 100 的影象,分別提取它們的hog特徵x rp q x rp q,p p為特徵的維數,q q 為這幅影象中h...

高斯混合模型(GMM)

講這個之前,要先對模糊聚類和基於概率模型的聚類有個大體的認識。不清楚的同學可以參考下jiawei的書去看一看,或者看看我的這篇文章。資料探勘 概念與技術 第三版 之第十一章的學習記錄 ok,這裡假設,大家已經有了上面我提到的先驗知識。gmm 和 k means 很像。不過 gmm 是學習出一些概率密...

高斯混合模型 GMM

本文主要針對初次接觸gmm的人,簡單的給出了一些自己初識的一些理解,比較淺顯。初次真正意義上接觸高斯混合模型 gaussian mixed model,gmm 是因為要用它來進行音訊分類,以音訊訊號特徵為輸入,通過gmm來建模,完成最終的分類。有乙個說法是gmm是多個高斯分布函式的線性組合。理論上g...