經典HMM簡介(一)

2021-06-28 23:56:32 字數 2118 閱讀 9824

如果乙個過程的「將來」僅依賴「現在」而不依賴「過去」,即x(

t+1)

=f(x

(t))

,則此過程具有馬爾可夫性,或稱此過程為馬爾可夫過程。時間和狀態都離散的馬爾科夫過程稱為馬爾科夫鏈,記作

。其中n表示狀態的種類數量。

記狀態空間:i=

。條件概率:pi

,j(m

,m+n

)=p 。pi

,j即狀態轉移概率矩陣的第i行第j列,表示在時刻m處於狀態ai

條件下,在時刻m+n轉移到狀態aj

的轉移概率。pi

,j(m

,m+n

) 與m無關時,稱馬爾科夫鏈為齊次馬爾科夫鏈。從而有:σn

j=1p

i,j(

m,m+

n)=1

,i∈[

1,n]

a=(aij)

aij=p(q

t=sj

|qt−

1=si

),1≤

i,j≤

n ai

j≥0,

σnj=

1aij

=1在馬爾科夫模型中,每乙個狀態代表乙個可觀察的事件;

在隱馬爾科夫模型中,狀態是不確定或不可見的,只有通過觀測序列的隨機過程才能表現出來。觀察到的事件與狀態並不是一一對應,而是通過一組概率分布相聯絡。

hmm是乙個雙重隨機過程,兩個組成部分:

馬爾可夫鏈:描述狀態的轉移,用轉移概率描述。

一般隨機過程:描述狀態與觀察序列間的關係,用觀察值概率描述。

我們都知道,韋小寶的骰子有兩個(兩種狀態),一種是正常的骰子,另乙個是老千(六個面的分布不均勻)。現在韋小寶擲骰子100次,我們就能得到長為100的數字序列,每個數字都是1到6之間,但是我們不知道這個序列中中哪些是正常的骰子擲出來的,哪些是老千擲出來的。

基本要素——五元組:λ=

(π,a

,b,m

,n) 簡記為:λ=

(π,a

,b) 。 n:

狀態數目

→ 骰子的種類數(2

) m:

可能的觀察值數目

→ 骰子擲出來的可能取值數目(6

) a:

與時間無關的狀態轉移概率矩陣

→ 選擇某個骰子的情況下,選擇其他骰子的概率 b:

給定狀態下,觀察值概率分布

→ 每個骰子擲出來的取值分布 π:

初始狀態空間的概率分布

→ 第一次取每種骰子的概率。

從韋小寶擲骰子的例子中,我們可以得到以下三個引數:

狀態轉移概率矩陣 a=

(aij

) ai

j=p(

qt=s

j|qt

−1=s

i),1

≤i,j

≤n a

ij≥0

,σnj

=1ai

j=1

觀察值概率分布矩陣(發射矩陣) b=

(bjk

) bj

k=p(

ot=v

k|qt

=sj)

,1≤j

≤n,1

≤k≤m

bjk≥0,σ

mk=1

bjk=

1 初始狀態概率分布 π=

(πi)

πi=p(q1

=si)

,1≤i

≤n π

i≥0,

σni=

1πi=

1 給定模型λ=

(π,a

,b) ,觀察序列o=

o1,o

2,…o

t 可由以下步驟產生:

1.根據初始狀態概率分布π=

πi選擇乙個初始狀態q1

=si ;

2.設t=1;

3.根據狀態si的輸出概率分布bj

k ,輸出ot

=vk ;

4.根據狀態轉移概率分布ai

j ,轉移到新狀態qt

+1=s

j ;

5.設t=t+1,如果

t<

t ,重複步驟3、4,否則結束。

經典模式簡介

為什麼要學習模式?設計模式減少了物件之間的依賴性,降低耦合程度,讓系統更易於擴充套件,提高了物件的可復用性,設計模式的優勢 1 復用解決方案,復用公認的設計,能學習其他的經驗,避免重蹈覆轍。2 確立通用術語,在分析和設計階段提供了共同的基準點 用於交流和協作的共同詞彙和對問題共識 3 提供更高層次的...

hmm和Veterbi演算法(一)

只是略微的看了些,有點感覺,還未深入,做個記錄。參考 隱馬爾可夫 hmm 前 後向演算法 viterbi 演算法 再次總結 誰能通俗的講解下 viterbi 演算法?數學之美第二版的第 26 章 1.hmm三要素 2.維特比演算法 3.簡明例子 1.初始概率分布 z1 可能是狀態 1,狀態 2 狀態...

一階HMM詞性標註

手頭的語料庫依然是msr training.utf8和msr test.utf8,它來自於自于sighan bakeoff 2005的 icwb2 data.rar 1.rmspace.cpp研究院的訓練文件是已經分好詞,但我們並不需要這個結果,我們要使用計算所有分詞系統重新進行分詞並進行詞性標註,...