吳恩達《機器學習》課程總結(8)神經網路表述

2022-07-04 16:24:14 字數 1278 閱讀 8843

(1)無論線性回歸還是邏輯回歸當特徵量太多時,計算的負荷會非常大。如50x50畫素有2500特徵,如果兩兩組合將會有25002/2個(接近300萬個特徵)。普通的線性回歸和邏輯回歸模型不能有效處理這麼多特徵,這時候需要用神經網路了。

大腦的某一塊可以經過學習,學會其他功能,比如某一塊感受觸覺,但是接受視覺訓練之後,能夠感受視覺。

(1)神經元有樹突和軸突,許多樹突接受電訊號,乙個軸突傳送電訊號。

(2)根據神經元模型,建立邏輯回歸模型:

(3)多神經元、多層時,分別稱為輸入層,掩藏層,輸出層:

(1)向量表示比迴圈編碼更高效:

以上只是針對乙個訓練例項,如果是整個訓練集進行計算的話,需要將x進行轉置,使得同乙個例項在一列。

(2)神經網路比線性回歸和邏輯回歸更強大,在於前者將特徵不斷進行高階化。

(1)從本質上講,神經網路能夠通過學習得出其自身的一系列特徵。

(2)邏輯與運算

其中θ為[-30,20,20]t.

(3)邏輯或運算

其中θ為[-10,20,20]t。

(4)非運算

通過上一節的簡單運算構造出複雜運算(同為1或者同為0時取1)

按照這種方法我們可以逐步構造出越來越複雜的函式,也能得到更加厲害的特徵值。這就是神經網路厲害之處。

如要在乙個中識別路人,汽車,電單車,卡車四類,這是神經網路可以設定四個輸出,每乙個用1或0代表是否有某一類即可。

吳恩達《機器學習》課程總結(8)神經網路表述

1 無論線性回歸還是邏輯回歸當特徵量太多時,計算的負荷會非常大。如50x50畫素有2500特徵,如果兩兩組合將會有25002 2個 接近300萬個特徵 普通的線性回歸和邏輯回歸模型不能有效處理這麼多特徵,這時候需要用神經網路了。大腦的某一塊可以經過學習,學會其他功能,比如某一塊感受觸覺,但是接受視覺...

吳恩達《機器學習》課程總結 19 總結

線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...

吳恩達《機器學習》課程總結(19)總結

線性回歸 下面第三行x0 i 其實是1,可以去掉 邏輯回歸 神經網路 寫出前向傳播即可,反向框架會自動計算 pca訓練誤差減去人類最高水平為偏差 欠擬合 交叉驗證集誤差減訓練誤差為方差 過擬合 正則化解決方差問題,不對 0正則化 全過程觀測偏差與方差,所以更全面。找到哪種原因造成誤差最大,最該花時間...