《數學之美》 第六章 個人筆記

2021-08-18 23:14:57 字數 1483 閱讀 8769

數學之美

最近在讀《數學之美》這本書,做一下個人筆記。看的是pdf,看完後會買一本的哦!版權意識還是有的。

1    資訊熵

從乙個角度可以認為資訊量就等於不確定性的多少。

資訊熵(entropy),一般用符號h表示,單位是位元。

熵的定義:

變數的不確定性越大,熵也就越大。

文中有個關於冗餘度

的:重複的內容很多,資訊量就小,冗餘度就大。

2    資訊的作用

乙個事物內部會存有隨機性,也就是不確定性:u。引入資訊 i 消除不確定性,而資訊量取決於u的大小。當 i < u 時,可以消除一部分不確定性,也就是說新的不確定性:u' = u - i 。

⭐條件熵

假設x和y是兩個隨機變數,已知x的隨機分布p(x),那麼也就知道了x的熵。現在還知道y和x的聯合概率密度,以及在y取不同值的前提下x的概率分布,即條件概率分布。定義在y的條件下的條件熵為:

h(x) >= h(x丨y),也就是說多了y的資訊之後,關於x的不確定性下降了。在統計語言模型中,如果把y看成是前乙個字,那麼在數學上就證明了二元模型的不確定性小於一元模型。同理,三元模型比二元好。(用條件熵解釋了模型複雜度)

⭐資訊的作用在於消除不確定性,nlp的大量問題就是尋找相關的資訊。

3    互資訊

互資訊(mutual information):作為兩個隨機事件「相關性」的量化度量。

假定有兩個隨機事件x 和 y ,它們的互資訊定義如下:

4   延伸閱讀:相對熵(交叉熵)

相對熵用來衡量兩個取值為正數的函式的相似性,定義:

三個結論:

①對於兩個完全相同的函式,它們的相對熵是零。

②相對熵越大,兩個函式差異越大;反之,則相反。

③對於概率分布或者概率密度函式,如果取值均大於零,相對熵可以度量兩個隨機分布的差異性。

⭐相對熵是不對稱的:

為了計算方便:將上面的不等式兩邊取平均,即

第六章筆記

頂層const與底層const的區別 頂層const是指標物件本身是乙個常量,而底層const是指標所指的物件是乙個常量,理解起來就相當於前者是直接,後者是間接。宣告函式可以多次,但是每個形參只能用實參預設初始化一次,即後續宣告只可以為未預設初始化的形參新增預設實參,而且其形參右側的所有形參必須都有...

《數學之美》 第六章 資訊的度量和作用

總結 資訊的作用在於消除不確定性 補充相對熵是用來衡量兩個取值為正數的函式的相似性,關於相對熵的3點結論 1.對於兩個完全相同的函式,它們的相對熵等於0 2.相對熵越大,兩個函式差異越大 反之相對熵越小,兩個函式差異越小 3.對於概率分布或者概率密度函式,如果取值均大於0,相對熵可以度量兩個隨機分布...

mysql第六章 第六章 mysql日誌

第六章 mysql日誌 一 錯誤日誌 錯誤日誌的預設存放路徑是 mysql 存放資料的地方 hostname.err 1.修改錯誤日誌存放路徑 mysqld log error data mysql mysql.log 2.檢視配置命令 show variables like log error 3...