深度學習筆記 why 「deep」?

2021-08-07 05:55:08 字數 1167 閱讀 7468

1、多層的學習效果往往比單層要好,即便引數的個數一樣

2、在用c語言進行結構化程式設計時,我們從來不會把大量的功能寫到乙個函式裡面,而是寫很多函式同過函式呼叫實現目標。神經網路也類似,乙個層可以看做乙個函式實現了乙個功能,多層結構更清晰,功能也更強大。

3、如下圖所示,如果只有一層的話就很難識別長頭髮男生,因為其樣本太少

增加一層實現識別性別的功能,在此基礎上進一步區分長髮和短髮,效果就好一些

因此,深層網路相比淺層網路需要更少的訓練資料(這一點與通常的大眾認知不同)。

4、雖然乙個只有一層隱含層的神經網路就可以模擬出任何連續函式,但事實上很少有人用這種簡單的網咯。因為,深度網咯更高效、更強大。

這一點類似於邏輯電路。乙個兩層的邏輯電路可以實現任何布林函式,但是現實中的邏輯電路有很多層

5、深度網咯可以完成更複雜的任務。比如:

再比如:

還有:

機器學習之why deep?

模組化 使用模組化,使用的資料是可以比較少的 如下圖,分類中,男生長髮的資料是比較少的,那麼就模組化!如下圖,模組化,先基本分類,男生和女生 長髮和短髮。半監督學習 為什麼需要半監督學習?我們需要data,但是有用的資料是比較少的,會講下面4個內容 一 半監督學習在generative model ...

深度學習筆記

在深度神經網路中,通常使用一種叫修正線性單元 rectified linear unit,relu 作為神經元的啟用函式。relu函式其實是分段線性函式,把所有的負值都變為0,而正值不變,這種操作被成為單側抑制。可別小看這個簡單的操作,正因為有了這單側抑制,才使得神經網路中的神經元也具有了稀疏啟用性...

深度學習筆記

如果沒有啟用函式,或則是線性啟用函式,g z z,那麼在深度神經網路中,相當於都做的是線性變換,多個線性變換的組合還是線性變換。這樣的結果和邏輯回歸沒什麼區別,也就是說,這種情況下,無論神經網路的深度有多深,也就等價於乙個一層的網路,隱藏層沒什麼作用。因此需要非線性啟用函式。1.什麼時候插入,ski...