吳恩達 機器學習 4 神經網路

2021-08-26 08:18:48 字數 1570 閱讀 4680

當特徵數量大時,在進行邏輯回歸和線性回歸時要包含所有的相關項,二項式的個數以n^2的量級增長,最終的結果可能過擬合,同時計算量也過大。

####model representation

x

0x_0

x0​為偏置單位,總是等於1,x是輸入,hθ(

x)h_\theta(x)

hθ​(x)

是輸出,θ

\theta

θ是權重即函式的引數,hθ(

x)h_\theta(x)

hθ​(x)

和邏輯回歸中的邏輯函式相同,在神經元中被稱為激勵函式

第一層是輸入層,第二層是隱藏層,第三層是輸出層,每條邊上有乙個權重θ

表示第j層的第i個激勵,所謂的激勵是指由乙個具體神經元讀入、計算並輸出的值

θ

j\theta^j

θj第j層到第j+1層單元的權值矩陣

θ

j\theta^j

θj的維數是sj+

1×(s

j+1)

s_\times(s_j+1)

sj+1​×

(sj​

+1),s

js_j

sj​表示第j層的單元數

將上述的公式向量化

examples and intuitions

構造實現與功能的神經網路

構造實現或功能的神經網路

構造實現異或功能的神經網路

為了將資料分類為多個類,我們讓我們的假設函式返回乙個值向量。假設我們想把我們的資料劃分為四類之一。我們將使用下面的例子來了解這種分類是如何完成的。這個演算法將輸入乙個影象並相應地進行分類

吳恩達機器學習之神經網路概述

一 非線性假設 線性回歸與邏輯回歸,都是線性假設,對於一些問題,如果用線性假設模擬,引數將會非常多,計算量巨大,而用非線性假設模擬,引數數量可能要少的多。此外,所有的線性假設,如感知機,都不能解決異或 xor,不同即為真 與同或 xnor,相同即為真 問題,即非線性邊界。神經網路,既可以做線性假設,...

吳恩達機器學習筆記 9 神經網路學習

本章講述了神經網路的起源與神經元模型,並且描述了前饋型神經網路的構造。在傳統的線性回歸或者邏輯回歸中,如果特徵很多,想要手動組合很多有效的特徵是不現實的 而且處理這麼大的特徵資料量,計算上也很複雜。神經網路最開始起源於生物資訊中的大腦,在上世紀80 90年代的時候很火,後來就沒什麼訊息了。在神經網路...

《吳恩達機器學習》學習筆記004 神經網路

假使我們採用的都是50x50畫素的小,並且我們將所有的畫素視為特徵,則會有 2500個特徵,如果我們要進一步將兩兩特徵組合構成乙個多項式模型,則會有約 2 個 接近3百萬個 特徵。普通的邏輯回歸模型,不能有效地處理這麼多的特徵,這時候我們需要神經網路。當資料的特徵太多,比如影象識別,一般就不能使用邏...