深度學習 吳恩達

2021-10-05 17:49:20 字數 1375 閱讀 3860

第三週神經網路

啟用函式

第一門課

感謝黃博的參考筆記

一次梯度下降

正向傳播與反向傳播

一次反向傳播梯度下降

注意與機器學習課程不同的一點是,第一層不算樣本輸入

a =t

an(z

)a = tan(z)

a=tan(

z)的值域是位於+1和-1之間。

a =t

anh(

z)=e

z−e−

zez+

e−za= tanh(z) = \frac - e^} + e^}

a=tanh

(z)=

ez+e

−zez

−e−z

​事實上,tanh函式是sigmoid的向下平移和伸縮後的結果。對它進行了變形後,穿過了(0,

0)(0,0)

(0,0

)點,並且值域介於+1和-1之間。

結果表明,如果在隱藏層上使用函式

g (z

[1])

=tan

h(z[

1])g(z^) = tanh(z^)

g(z[1]

)=ta

nh(z

[1])

效果總是優於sigmoid函式。因為函式值域在-1和+1的啟用函式,其均值是更接近零均值的。在訓練乙個演算法模型時,如果使用tanh函式代替sigmoid函式中心化資料,使得資料的平均值更接近0而不是0.5.

sigmoid函式和tanh函式兩者共同的缺點是,在z

zz特別大或者特別小的情況下,導數的梯度或者函式的斜率會變得特別小,最後就會接近於0,導致降低梯度下降的速度。

這有一些選擇啟用函式的經驗法則:

如果輸出是0、1值(二分類問題),則輸出層選擇sigmoid函式,然後其它的所有單元都選擇relu函式。

吳恩達深度學習筆記

2.02 紅色為小標題,藍色比較重要 第四講第二週 4.2.1 為什麼要進行例項 4.2.2 經典網路 lenet 5網路當時還沒有padding,所以在卷積過程當中越來越小 也沒有relu函式,當時這個例子用的是sigmoid函式。超級引數不是很多。這個典型的網路有padding,使用的是relu...

總結 吳恩達深度學習

從去年8月份開始,ai界大ip吳恩達在coursera上開設了由5們課組成的深度學習專項課程,掀起了一股人工智慧深度學習熱潮。這裡附上deeplearning.ai的官網 deeplearning.ai,也可以在網易雲課堂學習 有中文字幕 關於該深度學習專項課程,本人非常推薦!它對於理解各種演算法背...

吳恩達深度學習筆記

目錄導數的細節 向量化python中的廣播 第二部分深度學習內容 吳恩達講深度學習 1.資料量更大 2.演算法越來越優 3.業務場景越來越多樣化 4.學術界or工業界越來越卷 私以為 邏輯回歸是最簡單的二分類模型,也可以說是後續深度神經網路的基礎框架.達叔的演算法知識第一課.邏輯回歸的引數是w和b,...