李航統計學習第四章 樸素貝葉斯法

2021-09-10 19:07:02 字數 1048 閱讀 4083

1、先導知識

2、樸素貝葉斯演算法

樸素貝葉斯其實很簡單,之前看了好幾遍,但總是會忘記,感覺被深度學習荼毒太深。

這樣想,樸素貝葉斯算的也是有監督的東西,那麼無非就是輸入x,輸出y。如果需要得到引數,那麼就是根據輸入x和對應的標籤y,求條件概率p(y

∣x)p(y|x)

p(y∣x)

。這樣就好辦了,我們可以知道的是p(x

∣y)p(x|y)

p(x∣y)

,p (y

)p(y)

p(y)

,因為有標籤啊~又因為算的是樸素貝葉斯,數學公式稍微一推導,很簡單就可以得出下面的演算法。

3、拉普拉斯平滑估計

起那麼複雜的名字,簡單的說就是萬一資料集中狗的訓練資料為0咋辦,總不能求條件概率的時候除個0吧,因此就加上了所謂的拉普拉斯平滑估計,無非就是分母上加乙個epsion.

4、極大似然估計理解

下面博文講的特別好,拷貝過來

極大似然估計可以拆成三個詞,分別是「極大」、「似然」、「估計」,分別的意思如下:

極大:最大的概率

似然:看起來是這個樣子的

估計:就是這個樣子的

連起來就是,最大的概率看起來是這個樣子的那就是這個樣子的。

舉個例子:

有兩個媽媽帶著乙個小孩到了你的面前,媽媽a和小孩長得很像,媽媽b和小孩一點都不像,問你誰是孩子的媽媽,你說是媽媽a。好的,那這種時候你所採取的方式就是極大似然估計:媽媽a和小孩長得像,所以媽媽a是小孩的媽媽的概率大,這樣媽媽a看來就是小孩的媽媽,媽媽a就是小孩的媽媽。

統計學習方法 李航 樸素貝葉斯

之前都是對著抄,感覺沒什麼意思,而且還會漏掉一些點,所以索性直接全拿過來,再對它做些解釋說明,感覺還好點 大概思路就是假設條件獨立性 來簡化問題 然後求聯合分布 進行分類時對具體樣本用貝葉斯公式和剛才的聯合分布求後驗概率,並化簡 而這求解過程中要用到極大似然估計或者貝葉斯估計 y argmax ck...

統計學習方法第四章,貝葉斯估計的實現

include includeusing namespace std const int r 1 const int n 15 訓練樣本個數 const int k 2 類標記數 const int m 3 特徵可能取值數 const int s 2 特徵維數 int array 3 n float...

統計學習方法 樸素貝葉斯法

乙個事件概率依賴於另外乙個事件 已發生 的度量。p b a 的意義是在a發生的情況下b事件發生的概率。這就是條件概率。p ab p a times p b a 代表的意義是,ab事件同時發生的概率等於事件a發生的概率乘以在a發生條件下b事件發生的概率。p b a frac 事件序列發生且彼此相互依賴...