一看就懂的資訊熵

2022-03-01 16:42:37 字數 1854 閱讀 5190

h(x)=- ∑ p(x)logp(x)資訊的大小跟隨機事件的概率有關。越小概率的事情發生了產生的資訊量越大,如湖南產生 的**了;越大概率的事情發生了產生的資訊量越小,如太陽從東邊公升起來了(肯定發生嘛,沒什麼資訊量)。b、由於 x,y 是倆個不相關的事件,那麼滿足 p(x,y) = p(x)*p(y).

c、根據上面推導,我們很容易看出 h(x)一定與 p(x)的對數有關(因為只有對數形式的真數相乘 之後,能夠對應對數的相加形式,可以試試)**或參考:一看就懂的資訊熵 - jiangxiaokun -

資訊熵:

(看之前可以了解一下資訊熵的創始人:克勞德·艾爾伍德·夏農(claude elwood shannon ,2023年4月30日—2023年2月24日))

先給出資訊熵的公式:

首先了解一下資訊量:資訊量是對資訊的度量,就跟時間的度量是秒一樣,當我們考慮乙個離散的隨機變數 x 的時候,當我們觀察到的這個變數的乙個具體值的時候,我們接收到了多少資訊呢?

多少資訊用資訊量來衡量,我們接受到的資訊量跟具體發生的事件有關。

資訊的大小跟隨機事件的概率有關。越小概率的事情發生了產生的資訊量越大,如湖南產生 的**了;越大概率的事情發生了產生的資訊量越小,如太陽從東邊公升起來了(肯定發生嘛, 沒什麼資訊量)。這很好理解!

因此乙個具體事件的資訊量應該是隨著其發生概率而遞減的,且不能為負。但是這個表示信 息量函式的形式怎麼找呢?隨著概率增大而減少的函式形式太多了!不要著急,我們還有下 面這條性質。

如果我們有倆個不相關的事件 x 和 y,那麼我們觀察到的倆個事件同時發生時獲得的資訊應 該等於觀察到的事件各自發生時獲得的資訊之和,即:h(x,y) = h(x) + h(y)

由於 x,y 是倆個不相關的事件,那麼滿足 p(x,y) = p(x)*p(y).

根據上面推導,我們很容易看出 h(x)一定與 p(x)的對數有關(因為只有對數形式的真數相乘 之後,能夠對應對數的相加形式,可以試試)。因此我們有資訊量公式如下:

資訊熵 一看就懂

先給出資訊熵的公式 首先了解一下資訊量 資訊量是對資訊的度量,就跟時間的度量是秒一樣,當我們考慮乙個離散的隨機變數 x 的時候,當我們觀察到的這個變數的乙個具體值的時候,我們接收到了多少資訊呢?多少資訊用資訊量來衡量,我們接受到的資訊量跟具體發生的事件有關。資訊的大小跟隨機事件的概率有關。越小概率的...

一看就懂的SwitchHosts

switchhosts 是乙個管理 切換多個 hosts 方案的工具。它是乙個免費開源軟體。日常開發工作中,我們可能經常需要切換各種 hosts 繫結,比如在本地開發時可能需要乙個開發環境的 hosts 繫結方案,發布到測試環境後又有乙個測試環境的 hosts 繫結方案,然後可能還有乙個預發布環境,...

一看就懂TCP 連線

我們先來看乙個定義。這樣理解比較抽象。我們換個角度。它的本質還是傳輸控制。如果讓我們自己設計這個傳輸,我們會怎麼想呢。tcp 協議它會先建立連線。三次握手目的是保證雙方都有傳送和接收的能力 首要原因是為了防止舊的重複連線初始化造成混亂。同步雙方初始序列號客戶端和服務端都處於 closed 狀態。先是...