機器學習模型之樸素貝葉斯

2022-05-07 02:00:08 字數 1518 閱讀 4035

目錄貝葉斯的公式如下

\[ p(b_| a) = \frac | p(a)) * p(b_)} ^ p(b_) * p(a|p(b_))}

\]上述公式中我們可以將a當做將要**的例項,\(b_\)表示第\(i\)個類別標籤,也就是說我們輸入乙個例項,得到在每乙個類別標籤上的概率,哪個大就選擇哪個。

假設我們的訓練資料集是

\[ t = ,y_),(x_,y_)........(x_,y_)}

\]由這個訓練資料集,我們可以算出每個類別標籤在整個資料集出現的概率

\[ p(y|c_) , k = 1,2,3 ....k

\]我們可以得到例項中每個例項所對應的條件概率表示

\[ p(x=x|y=c_) = p(x^=x^,x^=x^.....x^=x^ | y = c_)

\]由於\(p(x=x|y=c_)\)有指數數量的引數,所以在求解時是不符合實際需要的,所以在這裡我們做了個假設,就是各個\(x^,x^....x^\)之間是相互獨立的,這也是為什麼這種演算法叫樸素貝葉斯的原因,最終\(p(x=x|y=c_)\)可以表示成如下:

\[ p(x=x|y=c_) = \prod_^ p(x=x^ | y=c_)

\]根據資料集,我們可以求解以上的一些引數,當這些引數求解之後,我們就可以進行**新的例項了。假設我們有一條新的例項x,如何**其分類的結果呢?首先我們根據貝葉斯公式可以得到

\[ p(y = y_ | x = x )

\]即我們得到所有類別的概率,並選擇最大的概率的類別作為結果。展開後為

\[ p(y = y_ | x = x ) = \frac ) * p(x=x |y = y_)} p(x=x |y = y_)p(y=y_)}

\]由於我們的前提假設,各個\(x^\)之間是相互獨立的,所以可以寫成

\[ p(y = y_ | x = x ) = \frac ) * \prod_ p(x^ = x^ | y = y_) } p(y=y_) * \prod_ p(x^ = x^ | y = y_) }

\]接下來我們要計算\(p(y = y_ | x = x )\)所對應的類別,即

\[ y = \arg\max_} p(y = y_ | x = x )

\]由於式子中分母都相同,所以我們只需要最大化分子即可

\[ y = \arg\max_} p(y = y_) * \prod_ p(x^ = x^ | y = y_)

\]這裡我們就copy一下《統計學習方法》上的例子了,上面已經講得很清楚了,我感覺自己舉的例子也不一定有這個清楚。

根據公式得到下面的概率

最後我們選擇最大的類別作為最終的類別

機器學習之樸素貝葉斯

寫在前面 本文寫自初學時,若後續學習過程中有新的理解,將不定期進行更新 若文中敘述有誤,望不吝賜教,也將及時修改 貝葉斯分類是一類分類演算法的總稱,這類演算法均以貝葉斯定理為基礎,故統稱為貝葉斯分類。而樸素樸素貝葉斯分類是貝葉斯分類中最簡單,也是常見的一種分類方法。在理解樸素貝葉斯之前,需要對兩個數...

機器學習之樸素貝葉斯

樸素貝葉斯 1 樸素貝葉斯 2 一 高斯樸素貝葉斯 gaussiannb實現了高斯樸素貝葉斯分類演算法,設假設特徵的可能性是高斯的 p x i y 12 y 2exp xi y 22 y 2 p x i y frac exp frac p xi y 2 y2 exp 2 y2 xi y 2 1 引數...

機器學習 樸素貝葉斯

樸素貝葉斯原理 1.貝葉斯公式 2.樸素貝葉斯的模型 3.後驗概率最大化的含義 4.樸素貝葉斯的引數估計 4.1.特徵是離散值 假設符合多項式分布 4.2.特徵是稀疏的離散值 假設符合伯努利分布 4.3.特徵是連續值 假設符合正態分佈 5.樸素貝葉斯演算法過程 6.樸素貝葉斯演算法小結 scikit...