神經網路和深度學習 之吳恩達

2021-09-11 23:21:14 字數 843 閱讀 5732

課件資料:

深度學習最近興起的原因

深度學習與傳統機器學習模型的優劣

促使深度學習發展的三要素:資料規模;計算能力;演算法改進

結構化資料與非結構化資料

邏輯回歸的代價函式

logistic回歸的概念,公式表示

logistic回歸可用於二分類

課程中用到的關於訓練集,測試集的一些符號表示

logistic回歸的「損失函式」與「代價函式」的概念,以及理論上的損失函式,以及實際中logistic回歸所使用的損失函式

實際中使用的lr的損失函式的使用原因:因為它是「凸函式」

對lr的實際損失函式,使用梯度下降的公式原理

邏輯回歸在針對單個樣本時的反向梯度計算;核心計算dw1,dw2,db

向量化:減少顯示的for迴圈,提高向量的預算速度

np.dot();np.exp(v);np.log(v);v**2;1/v

通過numpy的內建函式,來避免使用for迴圈

應用向量化於lr

lr的向量化:

import math

def sigmoid(x):

return 1.0/(1+math.e**(-x))

z = np.dot(w.t,x) + b

a = sigmoid(z)

或者:import numpy as np

def sigmoid(x):

return 1.0/(1+np.exp(-x))

吳恩達神經網路和深度學習

課程名稱 神經網路和深度學習 andrew ng 神經網路和深度學習 1 什麼是神經網路 傳送門 神經網路和深度學習 2 啟用函式 傳送門 神經網路和深度學習 3 神經網路輸入的表示 傳送門 神經網路和深度學習 4 符號約定 傳送門 神經網路和深度學習 5 邏輯回歸 傳送門 神經網路和深度學習 6 ...

吳恩達 深度學習 神經網路和深度學習

二分類問題是一種簡單分類問題,其輸出結果是兩個離散值。假如給定一副貓的,那麼二分類問題就可描述為 判別這幅影象中是否有貓?分類結果也只有1 表示存在 0 表示不存在 兩種。符號定義 x 表示乙個nx維資料,為輸入資料,維度為 nx,1 y 表示輸出結果,取值為 0,1 x i y i 表示第i組資料...

神經網路和深度學習 吳恩達 神經網路基礎

簡單的理解就是輸出的結果是兩個離散的值,就像課程中舉的例子 通過輸入一張的資訊,經過一些列的計算,輸出乙個離散的y值,中是否有貓,當y 1時表示中有貓,反之當y 0時,表示中沒有貓。我看很多人將這個翻譯成邏輯回歸,而在 機器學習 中,作者認為應該更為準確的叫對數機率回歸,這裡我就不對這兩個翻譯做過多...