機器學習 高斯判別分析

2022-06-23 16:27:10 字數 1895 閱讀 6225

在前面的博文中,我們介紹了線性判別分析用於分類,在這篇博文中,我們介紹高斯判別分析。高斯判別分析也是一種用於分類的方法,在樣本資料服從多元高斯分布以及類別標籤\(y\)服從伯努利分布的假設條件下,然後再由貝葉斯公式求出乙個新樣本分別屬於兩類別的概率。

對於給定的資料集\(d=\\),其中\(y_=\\)。根據假設\(y_i\)服從伯努利分布,那麼有如下公式成立

\[p(y)=\phi^y(1-\phi)^

\]其中\(\phi\)表示$y_i=$0的概率值。另外兩類樣本資料集均服從高斯分布,且方差一樣。那麼可以將兩個類別表示成如下

\[x|y=1 \sim n(u_1, \sigma)\\

x|y=0 \sim n(u_2,\sigma)

\]那麼綜合表達這兩類樣本成

\[p(x|y)=[n(u_1,\sigma)]^y[n(u_2, \sigma)]^

\]接下來的目標就是在目標準則下,求得高斯分布的引數,包括\(\theta=(\phi,u_1,u_2,\sigma)\)。首先定義似然函式

\[l(\theta)= \log\pi_^p(x_i,y_i)

\]然後利用貝葉斯公式

\[p(x,y)=p(x|y)p(y)

\]進而可以將似然函式表示成

\[l(\theta)=\log \pi_^[p(x_i|y_i)p(y_i)]\\

\sum_^(\log p(x_i|y_i)+\log p(y_i))

\]那麼引數\(\theta\)可以通過最大化\(l(\theta)\)得到

\[\hat=\arg \max_ l(\theta)\\

=\arg \max_\theta \sum_^[\log n(u_1,\sigma)^ + \log n(u_2,\sigma)^+log(\phi^(1-\phi)^)]

\]可以看到\(\phi\)只與後兩項有關,讓\(l(\theta)\)對\(\phi\)求偏導,可以得到

\[\frac}=\sum_^y_ \frac+(1-y_i)(-1)\frac=0

\]很容易得到

\[\phi = \frac\sum_^y_i

\]\(u_1\)的求解過程和\(u_2\)類似,因此只介紹求解\(u_1\)的過程。從\(l(\theta)\)的表示式可以知道\(u_1,u_2\)只與前兩項有關係,首先讓\(l(\theta)\)對\(u_1\)求偏導,得到

\[\frac}}=\sum_^y_i\log\frac\lvert\sigma\lvert^}}e^(x_i-u_1)^t\sigma^(x_i-u_1)}

\]由於中間的分數項是乙個常數,那麼\(u_1\)的求解可以轉成如下優化問題

\[\hat_1=\arg \max_ \sum_^ y_i[-\frac(x_u-u_1)^t\sigma^(x_i-u_1)]

\]重新定義目標函式\(l(u_1)\)如下

\[l(u_1)=-\frac\sum_^y_i(x_i-u_1)^t\sigma^(x_i-u_1)\\

-\frac\sum_^y_i[x_i^\sigma^x_i-2x_^\sigma^u_1+u_1^\sigma_u_1]

\]上式對\(u_1\)求偏導,得到

\[\frac}}=\sum_^y_i[\sigma^x_i-\sigma^u_1]=0\\

\rightarrow \hat_1=\frac^x_iy_i}^y_i}=\frac^}

\]同理可得

至此已經完成了高斯判別分析中的所有的引數估計。

高斯判別分析

1 多值正態分佈 多變數正態分佈描述的是n 維隨機變數的分布情況,這裡的 變成了向量,也變成了矩陣 寫作n 假設有n 個隨機變數x1 x2,xn。的第i 個分量是e x 而 ii var xi ij cov xi,xj 概率密度函式如下 其中 是 的行列式,是協方差矩陣,而且是對稱半正定的。當 是二...

ML 高斯判別分析

華電北風吹 天津大學認知計算與應用重點實驗室 日期 2015 12 11 高斯判別分析屬於生成模型,模型最終學習乙個特徵 類別的聯合概率。0 多維正態分佈 確定乙個多維正態分佈只需要知道分布的均值向量 rn 1 和乙個協方差矩陣 rn n 其概率密度函式如下 p x 1 2 n 2 1 2exp 1...

高斯判別分析模型

對於常見的分類演算法,經常用到的都是判別學習演算法,如 logistic二元分類器,還有softmax分類器等。它們都有乙個共同的特點,那就是我們直接去求 p y x 有時候也表示為 h x 這類方法的重點是去擬合引數 還有一種演算法 生成學習演算法。它的中心思想是直接去求p y x 很難,然後轉而...