吳恩達機器學習筆記 9 神經網路學習

2021-08-22 07:03:02 字數 795 閱讀 7014

本章講述了神經網路的起源與神經元模型,並且描述了前饋型神經網路的構造。

在傳統的線性回歸或者邏輯回歸中,如果特徵很多,想要手動組合很多有效的特徵是不現實的;而且處理這麼大的特徵資料量,計算上也很複雜。

神經網路最開始起源於生物資訊中的大腦,在上世紀80-90年代的時候很火,後來就沒什麼訊息了。在神經網路中,充滿了下面的這種神經元,訊號從樹突中傳進來,經過細胞核,然後沿著軸突傳送出去。神經元彼此連線,就形成了神經網路。

下面是乙個神經元的表示,增加乙個x0固定為1,他的引數就是bias偏置項。啟用函式有很多種,最常用的是sigmoid函式。

下面是乙個多層的神經網路,第一層是輸入層,第二層是隱含層,最後一層是輸出層。

所以最終的hθ的值是從前面每乙個輸入和引數確定的

基於神經元系統可以表示and等問題

多分類問題其實就是針對神經網路最後一層有多個輸出

吳恩達 機器學習 4 神經網路

當特徵數量大時,在進行邏輯回歸和線性回歸時要包含所有的相關項,二項式的個數以n 2的量級增長,最終的結果可能過擬合,同時計算量也過大。model representation x 0x 0 x0 為偏置單位,總是等於1,x是輸入,h x h theta x h x 是輸出,theta 是權重即函式的...

《吳恩達機器學習》學習筆記004 神經網路

假使我們採用的都是50x50畫素的小,並且我們將所有的畫素視為特徵,則會有 2500個特徵,如果我們要進一步將兩兩特徵組合構成乙個多項式模型,則會有約 2 個 接近3百萬個 特徵。普通的邏輯回歸模型,不能有效地處理這麼多的特徵,這時候我們需要神經網路。當資料的特徵太多,比如影象識別,一般就不能使用邏...

吳恩達機器學習之神經網路概述

一 非線性假設 線性回歸與邏輯回歸,都是線性假設,對於一些問題,如果用線性假設模擬,引數將會非常多,計算量巨大,而用非線性假設模擬,引數數量可能要少的多。此外,所有的線性假設,如感知機,都不能解決異或 xor,不同即為真 與同或 xnor,相同即為真 問題,即非線性邊界。神經網路,既可以做線性假設,...