基於貝葉斯最小錯誤率決策的分類

2021-10-24 12:54:15 字數 1677 閱讀 8429

基於貝葉斯最小錯誤率決策的分類

假定某個區域性區域細胞識別中正常p(w1)和異常p(w2)兩類先驗概率分別為p(w1)=0.9, p(w2)=0.1現有一系列待觀察的細胞,其觀察值為:-2.67 -3.55 -1.24 -0.98 -0.79 -2.85 -2.76 -3.73 -3.54 -2.27 -3.45 -3.08 -1.58 -1.49 -0.74 -0.42 -1.12 4.25 -3.99 2.88 -0.98 0.79 1.19 3.07 兩類的類條件概率符合正態分佈p(x|w1)=(-2,1.5), p(x|w2)=(2,2).依據最小錯誤率的貝葉斯決策對觀察的結果進行分類。

## 基於貝葉斯最小錯誤率決策的分類

import numpy as np

import math

x =[

-2.67,-

3.55,-

1.24,-

0.98,-

0.79,-

2.85,-

2.76,-

3.73,-

3.54,-

2.27,-

3.45,-

3.08,-

1.58,-

1.49,-

0.74,-

0.42,-

1.12

,4.25,-

3.99

,2.88,-

0.98

,0.79

,1.19

,3.07

]p_w1 =

0.9p_w2 =

0.1x_i =

0mean1 =-2

std1 = np.

sqrt

(1.5

)mean2 =

2std2 = np.

sqrt(2

)data_w1 =

data_w2 =

for x_i in x:

p_x_w1 =1/

(std1 *

pow(

2* math.pi,

0.5)

)* np.

exp(-(

(x_i - mean1)**2

)/(2

* std1 **2)

) p_x_w2 =1/

(std2 *

pow(

2* math.pi,

0.5)

)* np.

exp(-(

(x_i - mean2)**2

)/(2

* std2 **2)

) p_x = p_x_w1 * p_w1 + p_x_w2 * p_w2

p_w1_x =

(p_x_w1 * p_w1)

/ p_x

p_w2_x =

1- p_w1_x

if p_w1_x > p_w2_x:

data_w1 = np.

(data_w1, x_i)

if p_w1_x < p_w2_x:

data_w2 = np.

(data_w2, x_i)

print

("data_w1="

, data_w1)

print

("data_w2="

, data_w2)

最小錯誤率貝葉斯決策

在一般的模式識別問題中,人們的目標往往是儘量減少分類的錯誤,追求最小的錯誤率。根據之前的文章,即求解一種決策規則,使得 mi np e p e x p x dx 這就是最小錯誤率貝葉斯決策。在上式中,p e x 0,p x 0 對於所有的 x 均成立,故mi np e 等同於對所有的 x 最小化p ...

最小錯誤貝葉斯決策規則

設c個類 omega omega 分別具有類先驗概率 p omega p omega 如果除了已知這些類概率分布以外,其他資訊不得而知,則使分類錯誤率最小的決策規則是,若物件的 p left w right p left w right k 1,c k neq j 則將該物件歸屬於 w 類。這種分類...

基於概率的分類 貝葉斯分類

分類指 乙個給定的無標籤點的類標籤 貝葉斯分類器使用貝葉斯定理來 使得後驗概率最大的類標籤,主要任務是估計每乙個類的聯合概率密度函式,並通過多元正態分步來建模 令訓練資料集 d 包含 n 個 d 維空間中的點xi 也就是說有n個樣本資料,d個指標 令 yi 表示每個點的類標籤,即最終 的類別,其中y...