吳恩達深度學習課程第一課 第二週學習筆記

2021-10-17 11:23:01 字數 1561 閱讀 7498

吳恩達深度學習課程第一課—第二週學習筆記

二分類問題就是簡單的「是否」、「有無」問題,如判斷圖1中是否有貓,我們的視神經系統能夠輕易的分辨出這張圖中的貓,但是對於機器來說分辨這張圖卻不是那麼容易,更具體的來說機器只能讀取這幅圖的數字特徵(如影象的大小,通道數等),在此我們以每個畫素點的三原色對應的數值作為這幅圖的陣列特徵。

x:表示乙個n_x維資料,為輸入資料,維度為(n_x,1);

y:表示輸出結果,取值為(0,1)

(x(i),y(i))(代表x的(i)上標,y的(i)上標):表示第i組資料,可能是訓練資料,也可能是測試資料,此處預設為訓練資料;

x=[x(1),x(2),…,x^(m)]:表示所有的訓練資料集的輸入值,放在乙個 n_x×m的矩陣中,其中m表示樣本數目;

y=[y(1),y(2),…,y^(m)]:對應表示所有訓練資料集的輸出值,維度為1×m。

由函式影象可以看出, sigmoid 函式可以很好地將 (−∞,∞) 內的數對映到 (0,1) 上。於是我們可以將 g(z)≥0.5 時分為"1"類, g(z)<0.5 時分為"0"類。

當y=1時,損失函式就為:

要想損失值越小,就要讓y^ 越大,y^ 的取值是[0.1],所有y^ 應該取1;

同理當y=0時函式變為:

也是y^ 為0時l最小。

這樣的好處是模型會傾向於讓**輸出更接近真實樣本標籤 y。

成本函式一般指資料集上總的成本和損失,簡單來說就是把所有單個損失加起來取平均

我們要求w,b為何值時成本值最小

通過改變w,b的值尋找j(成本函式)的最小值

以下為二維解釋:w=w-a(學習率)*該點的導數

用梯度下降法時,導數為正w減小左移,導數為負w增加右移,在這過程中不斷靠近j(損失函式)的最小值。

當乙個列向量加上乙個實數時,python會將這個實數自動展開形成和這個列向量相同的形式,又如 乙個m x n的矩陣加上乙個1 x n的矩陣,python會將1 x n的矩陣行方向複製m次形成m x n的矩陣再繼續運算,如下圖;

吳恩達深度學習課程第一課 神經網路與深度學習

筆記 習題1.2 什麼是神經網路?簡單來說 神經網路就是完成輸入x到輸出y的對映功能的網路。注 x可能有多個輸入,但輸出y只能有乙個。如可以通過郵編 鄰居富裕程度 交通便利程度 周圍房價。1.3 用神經網路進行監督學習 結構化資料 指的就是資料庫資料 非結構化資料 指的是音訊 影象或者檔案中的內容 ...

第二週第一課緒論

資料結構,是描述客觀事物的數和字元的集合。資料結構包括 1 資料的邏輯結構 2 資料的儲存結構。資料結構是一門討論 描述現實世界實體的數學模型及其之上的運算在計算機中如何表示和實現 的學科,就像在軟體開發中提煉出其中的乙個個資料結構,並加以好的設計,不僅可以提高開發效率,而且會提高軟體的可靠性。首先...

第二週第一課緒論

what 總覽資料結構,資料結構是什麼,演算法描述及演算法分析基礎,以及各種其他特殊情況的演算法分析。why 經過了緒論的學習是為了更好地學習接下來地內容,我們知道了資料結構中的邏輯結構,儲存結構,資料運算。讓我們知道了邏輯結構的各種型別。經過小組的互相討論和學習懂得了集合,線性結構,屬性結構,圖形...