關於熵的證明練習

2021-07-22 22:43:04 字數 1059 閱讀 8662

這個學期有一門叫做「資訊理論與編碼」的課程,上課老師是我們學院的副院長,姓華,他不幽默,但是課程內容安排得很有條理,一層一層深入,最後有總結和隨堂複習題,3節課下來學到很多。

這個星期一的晚上是本學期的第2次課,講起了entropy(熵),用符號

h 來表示,及其性質,課後的練習題裡來了這麼一道題目: 證明

: h(x

3|x1

x2)≤

h(x3

|x1)

這是兩個條件熵的比較,要證明首先要了解條件熵是什麼意思,我們先來看張圖:

熵是一種資訊的量度,條件熵 h(

x|y)

的意思是:

x 的資訊,在

y知道的情況下還剩多少;也就是說在

x 的方塊內割除與

y共有的部分。聯合熵就是把兩個部分作並集,全部放一起。

知道了這個以後再看要證明的式子就容易多了,在 x3

中除去 x1

x2剩下的當然是小於在 x3

中除去單一的 x1

剩下的,就像同一堆木頭,拿走的多,剩下的就少,拿走的少,剩下的就多。

當然,證明還是要用正規的數學語言去描述的,這裡就必須要借助乙個後面才會學到的知識,叫做「平均互資訊」,記為 i(

x;y)

名字有點奇怪,但它就是用來描述兩部分的交集的;平均互資訊有如下性質: i(

x;y)

=h(x

)−h(

x|y)

根據這個性質我們可以得出: h(

x3|x

1x2)

=h(x

3)−i

(x3;

x1x2

) 和 h

(x3|

x1)=

h(x3

)−i(

x3;x

1)被減數是一樣的,減數中 i(

x3;x

1x2)

≥i(x

3;x1

) 所以證明完成.

關於交叉熵

在資訊理論中可以根據夏農熵估計乙個字串中每個符號 s 編碼所需的最小位數,前提是每個字元出現的概率 p 是已知的 舉個例子 比如,這個單詞的夏農熵 每個字元在字串中出現的概率 pa pl pe 1 5 0.2 pl 25 0.4 資訊熵 h 3 0.2 l og2 0.2 0.4 l og2 0.4...

matlab練習程式(Renyi熵)

renyi熵是對通常的夏農熵的擴充套件,算是q階廣義熵。公式如下 其中p和夏農熵公式中的p一樣,是概率。當q 1時公式退化為夏農熵公式。如何證明?看wiki吧 有用此公式尋找影象 最佳二值化閾值的。首先定義前景區域a,背景區域b。那麼前景與背景區域畫素相應的renyi熵就如下定義 其中k是當前取的灰...

關於nim博弈的證明。

nim博弈我們大家都很熟悉,那麼為什麼nim博弈中石子數異或起來和為0就是先手必敗,非0就是先手必勝呢,想必大家都有過這個疑問。很多人都知道這個結論,但是卻很少人知道證明過程。其實nim博弈的證明過程是一種對稱博弈。我們知道如果異或和是0,先手必敗。考慮異或和是0的意義,異或和是0代表著對於所有石頭...