《深度學習的數學》筆記 各種概念

2021-10-05 19:16:52 字數 1618 閱讀 7012

第二章 神經網路的數學基礎

第三章 神經網路的最優化

第四章 神經網路和誤差反向傳播法

第五章 深度學習和卷積神經網路

附錄神經元的「點火」、

神經元固有邊界值(閾值)、神經元訊號傳遞(點火)、權重

神經單元(unit)、啟用函式(activation function)、sigmoid函式、單位階躍函式、線性整流函式(relu)、偏置(bias)

神經網路、階層型神經網路(bp神經網路 back propagation)、卷積神經網路、層(layer)、輸入層、隱藏層(中間層)、輸出層、全連線層(fully connected layer 指前一層的神經單元與下一層的所有神經單元都有箭頭連線)

隱藏層肩負著特徵提取(feature extraction)的重要職責

網路自學習演算法、學習資料、學習、模型的最優化(確定使得誤差總和達到最小的權重和偏置 )、代價函式(**值與正解的誤差的平方的總和)、最小二乘法、回歸分析、

一次函式、斜率、截距、一次函式關係、誤差反向傳播法、函式、自變數、因變數、二次函式、最小二乘法、單位階躍函式、指數函式(底數、納皮爾數e)、正態分佈(期望值、平均值、標準差)、標註正態分佈、正態分佈隨機數(在神經網路的計算中,經常用到正態分佈隨機數作為初始值)

計算機不擅長導數計算,但擅長處理遞推關係式、數列(項、首項、有窮數列、末項、通項公式、遞迴定義、遞推關係式)、聯立遞推關係式

有向線段(起點、終點)、向量(位置、方向、大小)、向量是具有大小和方向的量,用箭頭表示、向量的座標表示、內積、梯度下降法、卷積神經網路、通過內積可以知道兩個向量的相對的相似度、張量tensor、應力張量

矩陣(行、列、方陣、行向量、列向量、向量、元素、單位矩陣、矩陣的和、矩陣的差、矩陣的常數倍、矩陣的乘積、hadamard乘積、轉置矩陣)

導函式、求導、可導、導數的線性性(和的導數為導數的和,常數倍的導數為導數的常數倍)、增減表、sigmoid函式及其導數(σ(x

)=11

+e−x

}}\nolimits^}}}\right. \right. }

σ(x)=1

+e−x

1​、σ 』(

x)=σ

(x)(

1−σ(

x)

)}\nolimits^}} \left( x \left) =\right. \right. } \sigma \left( x \left) \left( 1- \sigma \left( x \left) \right) \right. \right. \right. \right. }

σ』(x)=

σ(x)

(1−σ

(x))

)多變數函式、偏導數、拉格朗日乘數法

鏈式法則(復合函式求導公式)、復合函式、單變數函式的鏈式法則(導數可以像分數一樣進行計算)、多變數函式的鏈式法則

單變數函式的近似公式、多變數函式的近似公式、近似公式的向量表示、泰勒展開式

尋找最小值點的方法——梯度下降法(最速下降法)、二變數函式的梯度下降法的基本式、梯度(gradient,最陡的坡度方向)、哈密頓運算元、位移向量、正的微小常數(步長、學習率【它的確定方法沒有明確的目標,只能通過反覆試驗來尋找恰當的值】)

【深度學習的數學】2-11 用excel體驗梯度下降法(用python實現)

高等數學 各種概念和意義

函式是有連續性的,所以從幾何意義來說必須可以形成線條 如果用圖形表達的話就是線,這就是函式的含義。從這點來說,函式其實就是曲線。有規則的線,有週期的線,有極限 x軸或y軸 的線。比如直線,三角函式的線,各種線。導數是曲線切線的斜率 比如其中 切線 直線a與曲線b只有乙個接觸點,直線a是曲線b的切線。...

vga的各種概念

vga的概念包括行同步,場同步,行消隱和場消隱。其中同步頭是負的,乙個時序圖,有行同步訊號,顯示後沿,顯示訊號,顯示前沿,同步訊號。其中同步訊號和顯示後沿加起來,顯示前沿和同步訊號加起來是行消隱訊號。顯示寬頻包括重新整理頻率乘以解析度 vga的時鐘驅動,由解析度對應的重新整理頻率算出一幅影象對應的重...

讀書筆記(一) 編譯原理各種概念

上週買了一本 編譯原理 這周開始看,剛開始都是一些概念的東西,讀起來有些乏味,但是還算能讀的懂 相信後面的章節就是極度的讓人費解 總感覺看這種技術的東西,就像過眼雲煙,當時看的時候可能會有些理解,但是過一段時間再回來看的時候,發現又是在預習 所以還是畫點時間寫個讀書筆記吧 對自己有用,或者對別人也能...