機器學習 熵

2021-08-10 15:09:40 字數 1370 閱讀 4727

1. 為何總結

這週三開組會,師兄所做報告的公式中涉及熵的概念。

老闆一句話從直覺意義上解釋熵: 離散分布中,能量僅僅集中在少數點上,熵就低。

2. 熵的物理意義

1)化學及熱力學

當總體的熵增加,其做功能力也下降,熵的量度正是能量退化的指標。熵亦被用於計算乙個系統中的失序現象,也就是計算該系統混亂的程度。

2)資訊理論中,

熵是接收的每條訊息中包含的資訊的平均量( 熵

最好理解為不確定性的量度而不是確定性的量度,因為越隨機的信源的

熵越大。)

3.  《數學之美》(吳軍)-- 用於自然語言處理

chapter 6  資訊的度量和作用

資訊熵 h(x)

條件熵-- 多了y的資訊後,x的不確定性下降了

h(x|y)

互資訊-- 2個隨機事件的相關性

i(x;y)=h(x)-h(x|y)

相對熵(交叉熵)-- 與互資訊同根,衡量2個取值為正數的函式的相關性

chapter 20 最大熵模型

最大熵模型存在且唯一,形式為指數函式。

nlp應用:1)輸入法--**是哪個詞語; 2)搜尋,對網頁排序

缺點:計算量巨大

4. 決策樹的劃分選擇 用到 「資訊熵」

d: 樣本集

a: 離散屬性,有v個可能的取值

資訊增益(id3) gain(d,a)

增益率(c4.5)  gain_ratio(d,a)

機器學習1 資訊熵

1.在資訊理論中,熵被用來衡量乙個隨機變數出現的期望值。它代表了在被接收之前,訊號傳輸過程中損失的資訊量,又被稱為資訊熵。資訊熵也稱信源熵 平均自資訊量。2.從直觀上說,資訊熵越大,變數包含的資訊量越大,變數的不確定性也越大。乙個事物內部會存在隨機性,也就是不確定性,而從外部消除這個不確定性唯一的辦...

機器學習之相對熵

1.熵 資訊熵 的定義 不妨把資訊熵理解成某種特定資訊的出現概率 離散隨機事件的出現概率 乙個系統越是有序,資訊熵就越低 反之,乙個系統越是混亂,資訊熵就越高。資訊熵也可以說是系統有序化程度的乙個度量。如果乙個隨機變數 2.相對熵 又稱互熵,交叉熵,鑑別資訊,kullback熵,kullback l...

機器學習筆記 資訊熵

機器學習筆記 knn 機器學習筆記 決策樹 機器學習筆記 邏輯回歸 機器學習筆記 資訊熵 資訊的大小跟隨機事件的概率有關 越小概率的事情發生了產生的資訊量越大 目睹飛碟 越大概率的事情發生了產生的資訊量越小 太陽東昇西落 因此乙個具體事件的資訊量應該是隨著其發生概率而遞減的,且不能為負。而資訊熵則是...