統計學習方法四 樸素貝葉斯分類

2022-07-08 06:24:12 字數 1239 閱讀 8543

樸素貝葉斯分類

1,基本概念

2,演算法流程

關鍵點:理解先驗概率,條件概率,最大後驗概率,下面是以極大似然估計的

3,演算法改進(貝葉斯估計)

上述用極大似然估計可能會出現所要估計的概率值為0的情況,改進方法:

先驗概率貝葉斯估計:k表示類別數,λ為引數:0時為極大似然估計;1時為拉普拉斯平滑

條件概率貝葉斯估計:s為某個特徵的離散種類

4,總結

樸素貝葉斯的主要優點有:

1)樸素貝葉斯模型發源於古典數學理論,有穩定的分類效率。

2)對小規模的資料表現很好,能個處理多分類任務,適合增量式訓練,尤其是資料量超出記憶體時,我們可以一批批的去增量訓練。

3)對缺失資料不太敏感,演算法也比較簡單,常用於文字分類。

樸素貝葉斯的主要缺點有:   

1) 理論上,樸素貝葉斯模型與其他分類方法相比具有最小的誤差率。但是實際上並非總是如此,這是因為樸素貝葉斯模型假設屬性之間相互獨立,這個假設在實際應用中往往是不成立的,在屬性個數比較多或者屬性之間相關性較大時,分類效果不好。而在屬性相關性較小時,樸素貝葉斯效能最為良好。對於這一點,有半樸素貝葉斯之類的演算法通過考慮部分關聯性適度改進。

2)需要知道先驗概率,且先驗概率很多時候取決於假設,假設的模型可以有很多種,因此在某些時候會由於假設的先驗模型的原因導致**效果不佳。

3)由於我們是通過先驗和資料來決定後驗的概率從而決定分類,所以分類決策存在一定的錯誤率。

4)對輸入資料的表達形式很敏感。

樸素貝葉斯適用場景:

1)不同維度之間相關性較小,離散屬性的資料

統計學習方法四 樸素貝葉斯

結合之前的部落格 一 什麼是樸素貝葉斯?樸素貝葉斯是基於貝葉斯定理與特徵條件獨立假設的分類方法。對於給定的資料集,首先基於特徵條件獨立假設學習輸入 輸出的聯合概率分布 然後基於此模型,對給定的輸入x,利用貝葉斯定理求出後驗概率最大的輸出y 特徵 1 多分類 2 生成學習方法二 學習與分類 1 條件獨...

統計學習方法 樸素貝葉斯法

乙個事件概率依賴於另外乙個事件 已發生 的度量。p b a 的意義是在a發生的情況下b事件發生的概率。這就是條件概率。p ab p a times p b a 代表的意義是,ab事件同時發生的概率等於事件a發生的概率乘以在a發生條件下b事件發生的概率。p b a frac 事件序列發生且彼此相互依賴...

統計學習方法 樸素貝葉斯 python實現

樸素貝葉斯演算法 首先訓練樸素貝葉斯模型,對應演算法4.1 1 分別計算先驗概率及條件概率,分別存在字典priorp和condp中 初始化函式中定義 其中,計算乙個向量各元素頻率的操作反覆出現,定義為count函式。初始化函式定義了先驗概率和條件概率字典,並訓練模型 def init self,da...