資訊理論 熵 值的種類與其應用

2021-10-22 18:28:55 字數 1564 閱讀 7124

熵值(entropy)的定義歷史:

2023年德國物理學家克勞修斯《熱力學》中提出:

熵增原理,乙個系統的混亂度,實際發生過程中,總是系統的熵值趨於增大。

2023年玻爾茲曼《統計物理學》證明:系統的巨集觀物理性質,可以認為是所有可能微觀狀態的等概率統計平均值。我們將熵看作是乙個系統「混亂程度」的度量,因為乙個系統越混亂,可以看作是微觀狀態分布越均勻。

2023年夏農 在訊號通訊領域《資訊理論》提出資訊熵:

資訊熵(夏農熵):根據資料樣本所出現的概率計算資料混亂程度的數值叫做資訊熵。

2023年jaynes觀點認為熱力學熵值是夏農資訊理論的乙個應用。

所以現在除了利用了解系統或者樣本的熵值,還可以利把他的熵值(混亂度)作為乙個系統的特徵進行處理;

熵值的原始定義:

如果x是乙個離散型隨機變數,概率分布為:

p(x)=p(x=x)

x的熵值為h(x)=-ep(x)logap(x);

對數的底a為2時候:h單位是bit。

對數的底a為e=2.732:h單位是nat。

對數的底a為10:h的單位是hart。

取值範圍:【0-lg|x|】x是樣本取值個數

性質:連續性,對稱性,極值性(極值最大就是均勻分布的時候)可加性

熵值(資訊熵):又稱為自資訊或(資訊熵),系統的不確定性量度,離散變數的不確定性(混亂度的度量)。

例如以下:

自資訊 非負 量化單個事件發生包含資訊量(不確定度)的基本方法

香濃熵 非負 對概率分布中的不確定性總量進行量化

微分熵 非負 對連續性隨機變數的概率分布中的不確定性總量進行量化

相對熵 非負,非對稱 衡量兩個分布之間的差異;用作機器學習分類任務的損失函式時,往往可以替換為交叉熵

交叉熵 非負 衡量兩個隨機變數之間的相似度;當真實輸出a與期望輸出y接近的時候,代價函式接近於0;常用作分類問題中的損失函式

%輸入陣列x=[

1111

2234

];%資訊熵

a=tabulate

(x);

%統計概率函式:tabulate()

p_a=a(

:,3)

./100;

%取出統計概率值h=(

-1)*

sum(p_a.

*log2

(p_a)

)%計算資訊熵

微分熵:夏農資訊理論乙個連續時序樣本變數在連續變數上的推廣形式,

高斯分布下的微分熵:

聯合熵:

條件熵:

相對熵(relative entropy)(kl散度):交叉熵-資訊熵

差分熵:

微分熵:

交叉熵:

傳遞熵:

加權熵:

雷尼熵(renyi entropy),

用到熵的公式的

kl散度:

條件kl散度:

js散度:

互資訊:

點互資訊:

熵與資訊理論

假設任何檔案都可以被壓縮到 n 個二進位制位 bit 那麼其最多可以表示 2n 個不同的壓縮結果。也即,如果存在 2n 1個檔案,根據鴿籠原理,必然至少有兩個檔案得到同一壓縮效果。這就意味著,這兩個檔案不可能都無損地還原。因此,可以得出乙個相對抽象的結論,並非所有檔案都可以被壓縮到 n 個bit 位...

TensorFlow 資訊理論 資訊熵2

tensorflow 資訊理論 資訊熵2 flyfish tensorflow 資訊理論 資訊熵1 熵是接收的每條訊息中包含的資訊的平均量,又被稱為資訊熵 信源熵 平均自資訊量 自資訊量已經知道它的意思,平均自資訊量就是加權平均 在資訊理論裡 熵,資訊熵 信源熵 平均自資訊量都是乙個意思 乙個系統的...

資訊理論中的各種熵

本文簡單介紹了資訊理論中的各種熵,包括自資訊 熵 聯合熵 條件熵 互資訊 kl散度 交叉熵。並在最後用資訊理論中的交叉熵推導了邏輯回歸,得到了和最大似然法相同的結果。熵是資訊的關鍵度量,通常指一條資訊中需要傳輸或者儲存乙個訊號的平均位元數。熵衡量了 隨機變數的不確定度,不確定性越大熵越大。針對隨機變...