機器學習之先驗分布,後驗分布,共軛先驗分布

2021-07-27 11:04:44 字數 1168 閱讀 8270

共軛先驗分布的提出:某觀測資料服從概率分布p

(θ),

當觀測到新的資料時,思考下列問題:

1.能否根據新觀測資料x更新引數θ;

2.根據新觀測的資料可以在多大的程度上改變引數θ:θ=θ+rθ;

3.當重新估計得到θ時,給出的新引數數值θ的新概率分布p(θ

|x);分析:根據貝葉斯公式:p(θ

|x)=p

(x|θ

)p(θ

) / p(x

),其中p(x

|θ)是在已知θ的情況下估計x的概率分布,又稱似然函式;p(θ

)是原有的θ的概率分布;要想利用觀測到的資料更新引數θ,就要使更新後的p(θ

|x)和p(

θ)服從相同的分布,所以p(θ

)和p(θ|

x)形成共軛分布,p(θ

)叫做p(θ

|x)的共軛先驗分布。

舉個投硬幣的例子:使用引數θ的伯努利模型,θ為正面的概率,則結果為x的概率分布為:p(x

|θ)=θx

(1−θ

)1-x

伯努利模型的共軛先驗分布為beta分布,常見的共軛先驗分布有: 總體

分布二項

分布泊松

分布指數

分布正態

分布(方

差已知)

正態分佈

(方差未

知)引數

成功概率

均值均值

的倒數均

值方差共

軛先驗分

布貝塔分

布bet

a(α,

β)伽馬

分布γ(

k,θ)

伽馬分布

γ(k,

θ)正態

分布n(

μ,σ2

)逆伽馬

分布ig

a(α,

β)計算後驗概率p(θ

|x)=p(x|

θ)p(

θ) / p(x

)~p(x|

θ)p(

θ) ~p(x

|θ),得到的概率分布與先驗概率一致,所以最初的目標「能否根據新觀測資料x更新引數θ」可以成立。 θ

bonvli (x

+1−1

)θ(x

+1−1

)θ(x

+1−1

)

先驗分布 後驗分布 似然估計

貝葉斯公式 p x p x p p x p theta x frac p p x p x p x p xx x 觀測得到的資料 結果 theta 決定資料分布的引數 原因 p x p theta x p x 後驗概率,已知結果找原因 p x p x theta p x 似然估計,已經原因求結果 p ...

什麼叫共軛先驗或者共軛分布?

來自 如果你讀過貝葉斯學習方面的書或者 想必是知道共軛先驗這個名詞的。現在假設你閉上眼睛,你能準確地說出共軛分布是指哪個分布和哪個分布式共軛的嗎?我之前就常常把這個關係弄錯,現在記錄如下,以加強印象。貝葉斯學派和頻率學派的區別之一是特別重視先驗資訊對於inference的影響,而引入先驗資訊的手段有...

先驗概率 後驗概率以及共軛先驗

在貝葉斯學派的觀點中,先驗概率 後驗概率以及共軛分布的概念非常重要。而在機器學習中,我們閱讀很多資料時也要頻繁地跟他們打交道。所以理清這些概念很有必要。歡迎關注白馬負金羈的部落格 為保證公式 圖表得以正確顯示,強烈建議你從該位址上檢視原版博文。本部落格主要關注方向包括 數字影象處理 演算法設計與分析...