深度學習題 含答案和解析

2021-10-21 13:33:32 字數 1744 閱讀 2718

1. 下列關於深度學習說法錯誤的是

a  lstm在一定程度上解決了傳統rnn梯度消失或梯度**的問題

b  cnn相比於全連線的優勢之一是模型複雜度低,緩解過擬合

c  只要引數設定合理,深度學習的效果至少應優於傳統機器學習演算法

2. 在包含 n 個文件的語料庫中,隨機選擇乙個文件。該檔案總共包含 t 個詞,詞條「資料」出現 k 次。如果詞條「資料」出現在檔案總數的數量接近三分之一,則 tf(詞頻)和 idf(逆文件頻率)的乘積的正確值是多少?

a  kt * log(3)

b  k * log(3) / t

c  t * log(3) / k

d  log(3) / kt

3. 想象一下,你有乙個28x28 的,並使用輸入深度為 3 和輸出深度為 8 在上面執行乙個 3x3 的卷積神經網路。注意,步幅padding是1,你正在使用相同的填充(padding)。當使用給定的引數時,輸出特徵圖的尺寸是多少

a  28 寬、28 高、8 深

b  13 寬、13 高、8 深

c  28 寬、13 高、8 深

d  13 寬、28 高、8 深

4. 請問以下和神經網路中的dropout作用機制類似的是?

a  bagging

b  boosting

c  stacking

d  都不是

5. 關於神經網路中經典使用的優化器,以下說法正確的是

a  adam的收斂速度比rmsprop慢

b  相比於sgd或rmsprop等優化器,adam的收斂效果是最好的

c  對於輕量級神經網路,使用adam比使用rmsprop更合適

d  相比於adam或rmsprop等優化器,sgd的收斂效果是最好的

6. 如果乙個神經網路用於**一種事物的分類,例如分為a,b,c,d四類,那麼下列哪乙個啟用函式適用於該神經網路的輸出層

a  sigmoid

b  tanh

c  softmax

d  relu

7. 影象挖掘中常用卷積神經網路(dnn)作為基礎結構,以下關於卷積操作 (conv)和池化 ( pooling)的說法正確的是?

a  conv基於平移不變性,pooling基於區域性相關性

b  conv和pooling都基於平移不變性

c  conv基於區域性相關性,pooling基於平移不變性

d  conv和pooling都基於區域性相關性

8. 下列關於神經網路的敘述中,正確的是

a  損失函式關於輸入一定是非凸或非凹的

b  存在某種深度神經網路(至少乙個隱藏層),使其每個區域性最優解都是全域性最優解

c  深度神經網路容易陷入區域性最優解

d  以上選項都不對

9. 神經網路,非線性啟用函式包括sigmoid/tanh/relu等

a  加速反向傳播時的梯度計算

b  只在最後輸出層才會用到

c  總是輸出0/1

d  其他說法都不正確

10. 以下關於深度神經網路的說法中錯誤的是

a  使用梯度裁剪(gradient clipping)有助於減緩梯度**問題

b  若batch size過小,batch normalization的效果會出現退化

c  在使用sgd訓練時,若訓練loss的變化逐漸平緩不再明顯下降時,通常可以通過減小learning rate的方式使其再進一步下降

d  增大l2正則項的係數有助於減緩梯度消失問題

獲取答案和詳細的答案解析:

深度學習題 含答案和解析

1.為節省神經網路模型的訓練時間,神經網路模型的權重和偏移引數一般初始化為 a 0.5 b 1 c 隨機值 2.神經網路模型是受人腦的結構啟發發明的。神經網路模型由很多的神經元組成,每個神經元都接受輸入,進行計算並輸出結果,那麼以下選項描述正確的是 a 每個神經元只有乙個單一的輸入和單一的輸出 b ...

深度學習題 含答案和解析

1.在乙個神經網路中,知道每乙個神經元的權重和偏差是最重要的一步。如果知道了神經元準確的權重和偏差,便可以近似任何函式,但怎麼獲知每個神經的權重和偏移呢?a 搜尋每個可能的權重和偏差組合,直到得到最佳值 b 賦予乙個初始值,然後檢查跟最佳值的差值,不斷迭代調整權重 c 隨機賦值,聽天由命 d 以上都...

機器學習題 含答案和解析

1.目標變數在訓練集上的7個實際值為 1,1,1,1,0,0,0 目標變數的熵近似值是 log3 7 0.847,log4 7 0.560 a 0.683 b 0.683 c 0.724 d 0.243 2.關於k means聚類演算法說法不正確的是 a 對大資料集有較高的效率並且具有可伸縮性。b ...