機器學習中的數學修煉(含勘誤表!)

2021-07-13 04:34:48 字數 1655 閱讀 8577

數學是機器學習和資料科學的基礎,任何期望涉足相關領域並切實領悟具體技術與方法的人都無法繞過數學這一關。本書系統地整理並介紹了機器學習中所涉及的必備數學基礎,這些都是筆者從浩如煙海的數學知識中精心萃取的,在學習和研究機器學習技術時所必須的內容。具體包括概率論與數理統計、微積分(主要是與最優化內容相關的部分,例如泰勒展開與海塞矩陣等)、凸優化及拉格朗日乘數法、數值計算(例如牛頓法等)、泛函分析與變分法基礎(例如核方法賴以建立的希爾伯特空間理論、變分推斷賴以建立的基礎——變分法及「尤拉-拉格朗日方程」),資料降維與流形學習中常用的矩陣分解和特徵提取方法(例如pca與svd等)、以及蒙特卡洛取樣(拒絕與自適應拒絕取樣、重要性取樣、吉布斯取樣和馬爾科夫鏈蒙特卡洛)等內容。

此外,為了幫助讀者強化所學,本書還從上述數學基礎出發介紹了回歸、分類(感知機、邏輯回歸、樸素貝葉斯、決策樹、支援向量機、人工神經網路等)、聚類、降維與流形學習、整合學習,以及概率圖模型等機器學習中的重要話題。

如果你對博主已經出版的圖書感興趣,可以在qq群(155911675)中聯絡店小二以***購買全新正版的博主著作。需要入群購書的朋友,入群問題答案請直接填寫「購書」。

勘誤表p124:「下面的矩陣表面人口遷移…」

應該改為:「下面的矩陣表明人口遷移…」

p45:當且僅當 x=θ

x=\theta

x=θ時,∣∣x

∣∣=0

||x||=0

∣∣x∣∣=

0應該改為 當且僅當 x=0

x=0x=

0時,∣∣x

∣∣=0

||x||=0

∣∣x∣∣=

0 p17:第乙個概率密度函式(χ

2\chi^2

χ2分布)中的x

>

0x>0

x>

0應該改為 x≥0

x\geq0

x≥0

p22: 也就是說,乙個隨機變數的方差為 0 的充要條件是這個隨機變數的概率為 1。

應該改為:也就是說,乙個隨機變數的方差為 0 的充要條件是這個隨機變數的概率為 1 地等於常數。

應該改為:

應該改為(注意改動的地方由紅線標出):

p303:第乙個公式應改為

文末另附本書目錄,便於讀者進一步了解本書的內容。目錄

機器學習中的數學

從大學到現在,課堂上學的和自學的數學其實不算少了,可是在研究的過程中總是發現需要補充新的數學知識。learning和vision都是很多種數學的交匯場。看著不同的理論體系的交匯,對於乙個researcher來說,往往是非常exciting的enjoyable的事情。不過,這也代表著要充分了解這個領域...

機器學習中的數學

二 第二課時 1 極限 通俗語言 函式f在 x 0 處的極限是l 數學符號 lim f x l 無窮如何比較大小呢?如x趨近0的時候,sin x 和 tan x 同樣都趨近0,哪個趨近0的速度更快呢?我們可以採用求商的極限來求解 lim sin x tan x lim cos x 1 所以是同樣級別...

小白機器學習中的數學

從平面線性擬合談起 我們知道,線性回歸是最簡單的一種資料擬合,說的直白點,我們舉平面上的例子來看,平面上有若干個樣本點,我們的目標就是去畫一條直線去擬合這些樣本點。如果你對擬合這兩個字還不是吃得很透,我們下面慢慢來介紹。高斯雜訊是如何和最小二乘估計聯絡起來的?也就是換句話說,我們如何從概率的視角去審...