模式識別與機器學習 似然函式

2022-06-28 19:42:10 字數 1489 閱讀 8013

在數理統計學中,似然函式是一種關於統計模型中的引數的函式,表示模型引數中的似然性。

似然函式在統計推斷中有重大作用,如在最大似然估計和費雪資訊之中的應用等等。「似然性」與「或然性」或「概率」意思相近,都是指某種事件發生的可能性,但是在統計學中,「似然性」和「或然性」或「概率」又有明確的區分。

概率 用於在已知一些引數的情況下,**接下來的觀測所得到的結果,而

似然性 則是用於在已知某些觀測所得到的結果時,對有關事物的性質的引數進行估計。

在這種意義上,似然函式可以理解為

條件概率

的逆反。

如:在已知某個引數b時,事件a會發生的概率寫作

。利用貝葉斯定理,

因此,我們可以反過來構造表示似然性的方法:已知有事件a發生,運用似然函式

,我們估計引數b的可能性。

形式上,似然函式也是一種條件概率函式,但我們關注的變數改變了:

注意到這裡並不要求似然函式滿足歸一性:

乙個似然函式乘以乙個正的常數之後仍然是似然函式。對所有α > 0,都可以有似然函式:

例子:

考慮投擲一枚硬幣的實驗。通常來說,已知投出的硬幣正面朝上和反面朝上的概率各自是p

h = 0.5,便可以知道投擲若干次後出現各種結果的可能性。比如說,投兩次都是正面朝上的概率是0.25。用條件概率表示,就是:

其中h表示正面朝上。

在統計學中,我們關心的是在已知一系列投擲的結果時,關於硬幣投擲時正面朝上的可能性的資訊。我們可以建立乙個統計模型:假設硬幣投出時會有p

h 的概率正面朝上,而有1 − p

h 的概率反面朝上。這時,條件概率可以改寫成似然函式:

也就是說,對於取定的似然函式,在觀測到兩次投擲都是正面朝上時,p

h = 0.5 的似然性是0.25(這並不表示當觀測到兩次正面朝上時p

h = 0.5 的概率是0.25)。

如果考慮p

h = 0.6,那麼似然函式的值也會改變。

注意到似然函式的值變大了。這說明,如果引數p

h 的取值變成0.6的話,結果觀測到連續兩次正面朝上的概率要比假設p

h = 0.5時更大。也就是說,引數p

h 取成0.6 要比取成0.5 更有說服力,更為「合理」。總之,似然函式的重要性不是它的具體取值,而是當引數變化時函式到底變小還是變大。對同乙個似然函式,如果存在乙個引數值,使得它的函式值達到最大的話,那麼這個值就是最為「合理」的引數值。

在這個例子中,似然函式實際上等於:

, 其中

。如果取p

h = 1,那麼似然函式達到最大值1。也就是說,當連續觀測到兩次正面朝上時,假設硬幣投擲時正面朝上的概率為1是最合理的。

類似地,如果觀測到的是三次投擲硬幣,頭兩次正面朝上,第三次反面朝上,那麼似然函式將會是:

, 其中t表示反面朝上,

。這時候,似然函式的最大值將會在

的時候取到。也就是說,當觀測到三次投擲中前兩次正面朝上而後一次反面朝上時,估計硬幣投擲時正面朝上的概率

是最合理的。

機器學習 似然函式詳解

最近在研究一些概率論的東西,今天說一說似然函式。常說的概率是指給定引數後,即將發生的事件的可能性。拿硬幣這個例子來說,我們已知一枚均勻硬幣的正反面概率分別是0.5,要 拋兩次硬幣,硬幣都朝上的概率 h代表head,表示頭朝上 p hh ph 0.5 0.5 0.5 0.25.這種寫法其實有點誤導,後...

模式識別與機器學習(2)

參考部落格 隨機梯度下降 clear all x load ex2data ex2x.dat y load ex2data ex2y.dat x 1.15 1.9 3.06 4.66 6.84 7.95 10,14,16 x power x,0.5 y power x,0.5 m length y ...

模式識別與機器學習(4)

講了推理,以及主要收穫為,原來是對損失函式求導。不過公式不是很對,因為 clear x load ex4data ex4x.dat y load ex4data ex4y.dat m,n size x x ones m,1 x figure pos find y neg find y 0 plot ...