數學與深度學習

2021-08-17 06:53:53 字數 2273 閱讀 8088

深度學習與人工智慧領域主要的門檻有程式設計能力,需要有很好的邏輯思維和程式設計經驗;還需要有紮實的數學基礎,能夠看懂相關的理論;同時計算機基礎知識也需要掌握;最後還要了解相關學科的知識,比如計算機視覺領域的影象處理知識等。

下面主要介紹數學方面的掌握內容:

線性代數。想要學習深度學習, 你第乙個需要理解透徹的學問是線性代數。 為什麼? 因為深度學習的根本思想就是把任何事物轉化成高維空間的向量, 強大無比的神經網路, 說來歸齊就是無數的矩陣運算和簡單的非線性變換的結合。 這樣把影象啊, 聲音啊這類的原始資料一層層轉化為我們數學上說的向量。 什麼image to vector, word to vector 這些, 都在說的一件事情就是這類數學轉化, 不同型別(我們通常稱為非結構化資料)的資料最終成為數學上不可區分的高維空間的向量,所謂萬類歸宗。 線性代數,就是對於這一類高維空間運算做的預設操作模式,可謂上帝的魔術之手。

以下是關於線性代數的一些個人總結:

線性空間容納運動的乙個物件集合

線性變換規定了對應空間的運動。

向量是客觀存在的一組數,它的位置和大小都有它特定的意義,表示在對應座標系(基)下的大小。如果基改變(對應左乘乙個矩陣)那麼向量就會變化(相當於在另外乙個基下面進行了一次測量然後對應單位矩陣下再進行一次測量得到的結果)。

矩陣是線性空間裡變換的描述形式。也可以看成是一組基的描述。

可以看成是線性空間裡的座標系 。

矩陣與向量乘法的代數意義是對乙個向量進行線性變換;幾何意義是使乙個向量進行運動;還代表乙個座標系,在該座標系下度量為a,在單位座標系下度量為b,所以ha=b;還可以代表一組基。

矩陣的行列式:只有方陣有行列式,如果不是方陣呢,那麼我們可以通過補0讓他變成方陣,然後發現行列式為0。矩陣m的行列式實際上是組成m的各個向量按照平行四邊形法則搭成乙個n維立方體的體積。

矩陣與矩陣的乘法,從變換的角度來看,m*n代表把組成座標系n中的每乙個向量施加m變換(結合矩陣與矩陣乘法的運算規則,相當於賦予不同的權重)。從運動的角度來想是對矩陣n的 每個基向量表示的座標系進行變換。對座標系施加變換的方法,就是讓表示那個座標系的矩陣與表示那個變化的矩陣相乘。

相似矩陣就是同乙個線性變換的不同的描述矩陣。

a =p

−1bp

a=p^bp

a=p−1b

p概率論。下乙個我們需要講解的是什麼呢? 概率論基礎 。 概率論事整個機器學習和深度學習的語言 , 因為無論是深度學習還是機器學習所做的事情是均是**未知。 **未知你就一定要對付不確定性。 整個人類對不確定性的描述都包含在了概率論裡面。概率論你首先要知道的是關於概率來自頻率主義和貝葉斯主義的觀點, 然後你要了解概率空間這一描述描述不確定事件的工具, 在此基礎上, 熟練掌握各類分布函式描述不同的不確定性。我們最常用的分布函式是高斯, 但是你會發現高斯是數學書裡的理想, 而真實世界的資料, 指數分布和冪函式分布也很重要, 不同的分布對機器學習和深度學習的過程會有重要的影響,比如它們影響我們對目標函式和正則方法的設定。懂得了這些操作, 會對你解決一些競賽或實戰裡很難搞定的corner case大有裨益。 乙個於概率論非常相關的領域-資訊理論也是深度學習的必要模組,理解資訊理論裡關於熵,條件熵, 交叉熵的理論, 有助於幫助我們了解機器學習和深度學習的目標函式的設計, 比如交叉熵為什麼會是各類分類問題的基礎。 

微積分。微積分和相關的優化理論算是第三個重要的模組吧,線性代數和概率論可以稱得上是深度學習的語言,那微積分和相關的優化理論就是工具了。 深度學習, 用層層迭代的深度網路對非結構資料進行抽象表徵, 這不是平白過來的,這是優化出來的,用比較通俗的話說就是調參。 整個調參的基礎,都在於優化理論, 而這又是以多元微積分理論為基礎的。這就是學習微積分也很重要的根源。 

優化。機器學習裡的優化問題,往往是有約束條件的優化,所謂帶著鐐銬的起舞 , 因此拉格朗日乘子法就成了你逃不過的魔咒。

經常使用的監督學習可以看做最小化下面的目標函式:

w ∗=

ar

gmin⁡w

∑il(

)w^*=arg \min_w \sum_i l()

w∗=arg

wmin​i

∑​l(

)

3 數學基礎與深度學習

紮實的數學基礎是學習和研究深度學習的前提。沒有線性代數和統計學相關的知識,無法真正理解任何機器學習演算法的核心思想。在此要求所有的新生學習相關的數學基礎課程。prof.gilbert strang在mit講的線性代數 膜拜 是工科領域最強線代。來自cmu,世界上最好的工科統計學教材。學習內容 書上全...

深度學習 應用數學與機器學習基礎 1

如果你很熟悉線性代數,那麼你可以跳過本節 1 標量 向量 矩陣和張量 2 矩陣和向量相乘 矩陣乘法是矩陣運算中最重要的操作之一。兩個矩陣相乘是第三個矩陣。c aba的列數必須和b的行數相等。兩個矩陣中對應元素相乘被稱為元素對應乘積或者badamard乘積。記為 a b 兩個相同維數的向量x和y的點積...

深度學習 應用數學與機器學習基礎 3

矩陣分解除了分解成特徵值和特徵向量。還有一種分解矩陣的方法,被稱為奇異值分解 singular value decomposition svd 將矩陣分解為奇異向量和奇異值。通過奇異值分解,我們會得到一些與特徵分解相同型別的資訊。每個實數矩陣都有乙個奇異值分解,但不一定有特徵分解。回想一下,我們使用...