第四章 前饋神經網路習題

2021-10-01 05:20:44 字數 1030 閱讀 4533

習題4-1

設損失函式為j

jj,則對於第一層的引數w(1

)w^

w(1)

更新公式為

katex parse error: undefined control sequence: \part at position 9: \cfrac+\vec)\\ f=max\\\ y=\vec^t\vec+\vec $$

習題4-3

比如,引數的初始化導致一些神經元在開始的時候就無法被啟用,引數再迭代中也無法被更新。

又或者一旦這個神經元引數在一次迭代更新中導致wx+b<0,那麼就會導致「死亡」。

修正一下relu函式,採用帶洩露的relu作為啟用函式

l ea

kyre

lu

=x&x>0\\\gamma x&x\le0\end

leakyr

elu=

\big)\big(\cfrac+1\big)+\cfrac+1\\=n\big(\cfrac+1\big)

(l−1)(

l−1n

−1​)

(l−1

n−1​

+1)+

l−1n

−1​+

1=n(

l−1n

−1​+

1)習題4-6

**題目:**證明通用近似性質對於具有線性輸出層和至少乙個使用relu啟用函式的隱藏層組成的前饋神經網路,也都是適用的。

證明在這篇**中有詳細證明過程,證明過程太過繁瑣,超出我的能力範圍。

習題4-7

精確擬合偏置所需的資料通常比擬合權重少得多。每個權重會指定兩個變數如何相互作用。我們需要在各種條件下觀察這兩個變數才能良好地擬合權重。而每個偏置僅控制乙個單變數。這意味著,我們不對其進行正則化也不會導致太大的方差。另外,正則化偏置引數可能會導致明顯的欠擬合。

習題4-8

可能會出現兩種問題

習題4-9

不可以,梯度以指數級減小,增加學習率只是飲鴆止渴。甚至有可能一開始學習率過大,讓它在錯誤的路上一去不復返

前饋神經網路

前饋神經網路 ffnn 由乙個輸入層,一到多個隱藏層,有乙個輸出層組成。資料通過網路一層層向後傳遞,直到輸出層,之間沒有反饋迴路。前饋神經網路可得到的函式 1 有乙個隱藏層的網路,可形成任意乙個連續函式 2 有倆個及以上的隱藏層,可形成任意函式,包括連續函式和離散函式 說明 設計乙個計算函式的網路,...

機器學習筆記 第四章 神經網路

本文為 前面的章節學習了線性回歸和邏輯演算法,實際上很多複雜的非線性分類器都依賴於神經網路演算法。當特徵值的個數過多時,多元回歸方程的高階多項式的個數將以幾何倍數增加,特徵空間將會很大。而對於很多機器學習的例子,特徵值的個數是很大的,例如影象識別,一副中的畫素個數就代表了特徵值的數量,如果再用二次項...

第四章習題

一。填空題 1 基 派生 2 單繼承 多繼承 3 私有繼承方式 4 公有 保護 5 多繼承 6 支配原則 7 解決二義性 8 使用作用域運算子 引進虛基類 二。選擇題 1 5 b cd abc c a 6 10 c b d ad a 三。判斷題 f t f t f f 四。簡答題 1.在物件導向技術...