統計學習方法 樸素貝葉斯法

2022-03-16 12:46:24 字數 1223 閱讀 3085

乙個事件概率依賴於另外乙個事件(已發生)的度量。

\(p(b|a)\)的意義是在a發生的情況下b事件發生的概率。這就是條件概率。

\(p(ab) = p(a) \times p(b|a)​\) 代表的意義是,ab事件同時發生的概率等於事件a發生的概率乘以在a發生條件下b事件發生的概率。

\[p(b|a)=\frac

\]事件序列發生且彼此相互依賴,所以才有條件概率,這是前提。如果a, b兩個事件沒有相互依賴關係,那麼就是獨立事件。在獨立事件的情況下,兩個事件不會相互影響對方。

\[p(b|a)=p(b) if a,b互為獨立事件

\]事件a1,a2,a3,...... a是相互排斥的,不能同時發生。若事件a1,a2,…構成乙個完備事件組且都有正概率,則對任意乙個事件b,有如下公式成立:

\[p(b) = p(ba_1)+p(ba_2)+...+p(ba_n) \\ =p(b|a_1)p(a_1) + p(b|a_2)p(a_2) + ... + p(b|a_n)p(a_n)

\]graph tb

start-->a

a-->b

b-->a

a-->start

最簡單形式:

後驗概率 = 修正因子 x 先驗概率

\[p(a|b)=\frac\times p(a)

\]graph tb

start-->a1

start-->a2

start-->a3

start-->an

a1-->b

a2-->b

a3-->b

an-->b

\[p(a_i|b) = \fracp(a_i)\times p(b|a_i)}

\]

極大似然估計是概率論中乙個很常用的估計方法,在機器學習中的邏輯回歸中就是基於它計算的損失函式

極大似然估計是基於乙個理論:概率最大的事件,最可能發生

極大似然估計(maximum likelihood estimation, mle),通俗的說就是 —— 最像估計法(最可能估計法)

極大似然原理與數學表示: 有n個實驗結果,\(a_i\)到\(a_n\),如果\(a_j\)發生了,則意味著\(a_j\)發生的概率最大。即,一次試驗就發生的事件,這個事件本身發生概率最大

統計學習方法四 樸素貝葉斯

結合之前的部落格 一 什麼是樸素貝葉斯?樸素貝葉斯是基於貝葉斯定理與特徵條件獨立假設的分類方法。對於給定的資料集,首先基於特徵條件獨立假設學習輸入 輸出的聯合概率分布 然後基於此模型,對給定的輸入x,利用貝葉斯定理求出後驗概率最大的輸出y 特徵 1 多分類 2 生成學習方法二 學習與分類 1 條件獨...

統計學習方法 樸素貝葉斯 python實現

樸素貝葉斯演算法 首先訓練樸素貝葉斯模型,對應演算法4.1 1 分別計算先驗概率及條件概率,分別存在字典priorp和condp中 初始化函式中定義 其中,計算乙個向量各元素頻率的操作反覆出現,定義為count函式。初始化函式定義了先驗概率和條件概率字典,並訓練模型 def init self,da...

統計學習方法四 樸素貝葉斯分類

樸素貝葉斯分類 1,基本概念 2,演算法流程 關鍵點 理解先驗概率,條件概率,最大後驗概率,下面是以極大似然估計的 3,演算法改進 貝葉斯估計 上述用極大似然估計可能會出現所要估計的概率值為0的情況,改進方法 先驗概率貝葉斯估計 k表示類別數,為引數 0時為極大似然估計 1時為拉普拉斯平滑 條件概率...