HMM學習最佳範例六 維特比演算法4

2021-05-04 10:41:07 字數 929 閱讀 6452

**自: http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-4

六、維特比演算法(viterbi algorithm)

維特比演算法定義(viterbi algorithm definition)

1、維特比演算法的形式化定義

維特比演算法可以形式化的概括為:

對於每乙個i,i = 1,… ,n,令:

——這一步是通過隱藏狀態的初始概率和相應的觀察概率之積計算了t=1時刻的區域性概率。

對於t=2,…,t和i=1,…,n,令:

——這樣就確定了系統完成時(t=t)最可能的隱藏狀態。

對於t=t-1,…,1

令:——這樣就可以按最可能的狀態路徑在整個網格回溯。回溯完成時,對於觀察序列來說,序列i1 … it就是生成此觀察序列的最可能的隱藏狀態序列。

2.計算單獨的』s和』s的計算與前向演算法中的區域性概率』s和』s時被替換為max——這乙個重要的不同也說明了在維特比演算法中我們選擇的是到達當前狀態的最可能路徑,而不是總的概率。我們在維特比演算法中維護了乙個「反向指標」記錄了到達當前狀態的最佳路徑,即在計算)。

區域性概率是由反向指標指示的路徑到達某個狀態的概率。

當t=t時,維特比演算法所到達的這些終止狀態的區域性概率』s是按照最優(最可能)的路徑到達該狀態的概率。因此,選擇其中最大的乙個,並回溯找出所隱藏的狀態路徑,就是這個問題的最好答案。

關於維特比演算法,需要著重強調的一點是它不是簡單的對於某個給定的時間點選擇最可能的隱藏狀態,而是基於全域性序列做決策——因此,如果在觀察序列中有乙個「非尋常」的事件發生,對於維特比演算法的結果也影響不大。

這在語音處理中是特別有價值的,譬如當某個單詞發音的乙個中間音素出現失真或丟失的情況時,該單詞也可以被識別出來。

HMM學習最佳範例五 前向演算法3

五 前向演算法 forward algorithm 前向演算法定義 forward algorithm definition 我們使用前向演算法計算t長觀察序列的概率 其中y的每乙個是觀察集合之一。區域性 中間 概率 s 是遞迴計算的,首先通過計算t 1時刻所有狀態的區域性概率 也就是當前狀態相應的...

HMM學習最佳範例七 前向 後向演算法3

七 前向 後向演算法 forward backward algorithm 前向 後向演算法是baum於1972年提出來的,又稱之為baum welch演算法,雖然它是em expectation maximization 演算法的乙個特例,但em演算法卻是於1977年提出的。那麼為什麼說前向 後向...

HMM學習最佳範例七 前向 後向演算法5

七 前向 後向演算法 forward backward algorithm 上一節我們定義了兩個變數及相應的期望值,本節我們利用這兩個變數及其期望值來重新估計隱馬爾科夫模型 hmm 的引數pi,a及b 前向 後向演算法程式示例如下 在baum.c中 void baumwelch hmm phmm,i...