吳恩達《深度學習》第一門課(1)深度學習引言

2021-09-20 08:13:06 字數 969 閱讀 1266

主要講了五門課的內容:

第一門課:神經網路基礎,構建網路等;

第二門課:神經網路的訓練技巧;

(1)常說的深度學習指的就是訓練神經網路,或者也指特別大規模的神經網路。

(2)每乙個神經元都代表著從輸入到輸出的函式對映,如下的房價**:

(3)啟用函式relu(rectified linear unit)其實就是max(0,x)。

(4)神經網路非常擅長計算從x到y的精確對映函式(個人理解:神經網路實質就是非線性的多項式擬合),神經網路的輸入單元個數一般是特徵個數,中間稱為隱藏層,然後輸出單元個數依據實際情況而定,如下輸出是房價的**值,故是乙個神經元。

(1)神經網路在監督學習上的應用:

(2)資料報括結構化資料和非結構化資料,影象語言語音都是非結構化資料,是神經網路要研究解決的重點。

(2)演算法創新的乙個小案例:啟用函式從sigmoid(存在梯度消失)變成relu,訓練的速度變得更快了。

(3)在實踐應該按照下圖方式進行快速迭代:

總共四周,分別是前言,預備知識,淺層神經網路和深層神經網路。

吳恩達《深度學習》第一門課(3)淺層神經網路

1 神經網路每個單元相當於乙個邏輯回歸,神經網路由邏輯回歸的堆疊起來。下圖是網路結構 針對網路結構進行計算 1.第一層的正向傳播 2.第一層的反向傳播 3.第二層的反向傳播 正向只要把微分符號去掉即可 1 神經網路各層分別較輸入層 掩藏層和輸出層,其中說乙個網路有幾層時一般不包括輸入層,如下圖是乙個...

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...

吳恩達深度學習日記1

今天的內容主要是聽了logistic回歸的部分 1 logistic回歸其實就是乙個 y sigmoid wx b 的乙個式子,其實可以直接理解為乙個一元一次函式,但是考慮到這個模型的用處在於做乙個二分類,所以直接使用 y wx b 不一定可以滿足要求,而加上sigmoid函式之後就可以將結果值y固...