混合高斯模型 學習筆記

2022-05-13 18:32:32 字數 1108 閱讀 7764

極大似然估計與em演算法:

詳解em演算法與混合高斯模型(gaussian mixture model, gmm)_林立民愛洗澡-csdn部落格

gmm(高斯混合模型)以及簡單實現_zjm750617105的專欄-csdn部落格

在乙個gmm裡,bic(bayesian information criteria)準則是一種有效的成分數確定方法。注意,如果使用乙個variational bayesian gaussian mixture, 可以避免指定gmm的成分數。

aic準則是由日本統計學家akaike與2023年提出的,全稱是最小化資訊量準則(akaike information criterion)。它是擬合精度和引數個數的加權函式: 

aic=2(模型引數的個數)-2ln(模型的極大似然函式)

aic為模型選擇提供了有效的規則,但也有不足之處。當樣本容量很大時,在aic準則中擬合誤差提供的資訊就要受到樣本容量的放大,而引數個數的懲罰因子卻和樣本容量沒關係(一直是2),因此當樣本容量很大時,使用aic準則選擇的模型不收斂與真實模型,它通常比真實模型所含的未知引數個數要多。bic(bayesian informationcriterion)貝葉斯資訊準則是schwartz在2023年根據bayes理論提出的判別準則,稱為sbc準則(也稱bic),彌補了aic的不足。sbc的定義為: 

bic = ln(n)(模型中引數的個數) - 2ln(模型的極大似然函式值)

【sklearn第十九講】高斯混合模型_python_wong2016的部落格-csdn部落格

二維高斯分布(two-dimensional gaussian distribution)的引數分析_林立民愛洗澡-csdn部落格

高斯混合模型(gmm) - 知乎

高斯混合模型詳細推導 - ~寧靜致遠~ -

高斯混合模型(gmm) - mind puzzle -

高斯混合模型 - 一抹煙霞 -

一文詳解高斯混合模型原理 - 知乎

【機器學習基礎】em演算法_人工智慧_tuzi_bo的專欄-csdn部落格

可能相關:

gmr.m 免費開源**閱讀 開發,分享 - codeforge.cn

高斯混合模型

本文就高斯混合模型 gmm,gaussian mixture model 引數如何確立這個問題,詳細講解期望最大化 em,expectation maximization 演算法的實施過程。多維變數x服從高斯分布時,它的概率密度函式pdf為 x是維度為d的列向量,u是模型期望,是模型方差。在實際應用...

高斯混合模型

高斯混合模型 本文就高斯混合模型 gmm,gaussian mixture model 引數如何確立這個問題,詳細講解期望最大化 em,expectation maximization 演算法的實施過程。多維變數x服從高斯分布時,它的概率密度函式pdf為 x是維度為d的列向量,u是模型期望,是模型方...

高斯混合模型

本文就高斯混合模型 gmm,gaussian mixture model 引數如何確立這個問題,詳細講解期望最大化 em,expectation maximization 演算法的實施過程。多維變數x服從高斯分布時,它的概率密度函式pdf為 x是維度為d的列向量,u是模型期望,是模型方差。在實際應用...