語言模型的評估與困惑度

2021-09-28 20:01:31 字數 663 閱讀 5493

提取碼:ekzm

訓練好乙個語言模型後,怎樣評估語言模型的好壞呢?可以使用困惑度(perplexity)!困惑度越小,則語言模型越優。

形式一:

p p(

w)=p

(w1w

2...

wn)−

1n

pp(w ) = p(w_1w_2...w_n )^}

pp(w)=

p(w1

​w2​

...w

n​)−

n1​上面的式子中w

ww為一句話,w1w

2...

wn

w_1w_2...w_n

w1​w2​

...w

n​為構成這句話的詞,為求解上面的式子,可以將上面的聯合概率展開,並使用不同的假設,比如unigram,bigram等。

形式二:

2 −∑

i=1n

1n

log⁡2q

(xi)

2^^n \frac \log_2 q(x_i)}

2−∑i=1

n​n1

​log2​

q(xi

​)上式中q分布為形式一中展開聯合分布後每一項的分布表示。可以對比參考文獻1和參考文獻3中的內容體會。

語言模型評估

如何評估語言模型 perplexity 乙個語言模型表現更好好就是說它在測試集合表現更好,也就是說使得測試資料能有更高產生概率 assign a higher score to test data 在這個基礎上表徵了這一特徵,perplextiy越低則表示測試資料產生概率越高。n起歸一作用,在這裡避...

模型評估與模型選擇

模型選擇的目的是使學到的模型對已知資料和未知資料都有較好的 能力,同時又要避免過擬合。所考察的指標主要是模型的訓練誤差及測試誤差,模型的複雜度越高,訓練誤差越小,但測試誤差先減小後增大。訓練誤差和測試誤差隨模型複雜度變化趨勢 過擬合是指模型的複雜度比真模型更高,模型選擇就是選擇測試誤差最小的適當複雜...

模型評估與選擇

錯誤率 分類錯誤的樣本書佔樣本總數的比例 誤差 學習器的實際 輸出與樣本的真實輸出之間的差異 訓練誤差 經驗誤差 學習器在訓練集上的誤差 泛華誤差 在新樣本上的誤差 過擬合 學習器把訓練樣本學的 太好 了,很可能已經把訓練樣本本身的一些特點當作了所有潛在樣本都會具有的一般性質,導致泛華效能下降。欠擬...