百面機器學習 深度學習常見問題

2021-09-19 14:20:28 字數 625 閱讀 7102

一、前向神經網路

1、寫出常用啟用函式

2、神經網路是否可將引數全部初始化為0?

3、多層感知機表示異或邏輯需要多少個隱層?

4、什麼是梯度消失和梯度**?如何避免?

5、寫出多層感知機的平方誤差和交叉熵的損失函式

6、解釋卷積操作中的稀疏互動和引數共享及其作用

7、乙個隱層需要多少隱節點才能夠實現包含n元輸入的任意布林函式?

8、多個隱層實現包含n元輸入的任意布林函式需要多少個節點和網路層?

9、relu系列的啟用函式的優點是什麼?有什麼侷限性?如何改進?

10、平方誤差損失函式和交叉熵損失函式分別適合什麼場景?

11、為什麼dropout可以抑制過擬合?

12、批量歸一化的基本動機和原理是什麼?cnn如何進行歸一化?

13、常用的池化操作有哪些?池化的作用是什麼?

14、卷積神經網路如何用於文字分類?

15、resnet的提出背景和核心理論是什麼?

16、根據損失函式推導各層引數更新的梯度計算公式。

二、迴圈神經網路

迴圈神經網路與前饋神經網路相比有什麼特點?

迴圈神經網路為什麼會出現梯度消失和梯度**?

lstm如何實現長短期記憶功能?

深度學習 百面機器學習 堆排序

堆的 實現 複雜度分析 二叉堆本質上是一種完全二叉樹,它分為兩個型別 最大堆 最大堆任何乙個父節點的值,都大於等於它左右孩子節點的值。最小堆 最小堆任何乙個父節點的值,都小於等於它左右孩子節點的值。二叉堆的根節點叫做堆頂。最大堆和最小堆的特點,決定了在最大堆的堆頂是整個堆中的最大元素 最小堆的堆頂是...

深度學習中常見問題

1.cai之前遇到乙個事情就是 無論輸入的是什麼,結果都是一樣的,並且同乙個生成的多個框的類別也都是一樣的 錯誤原因 test的網路沒有進行caffemodel的初始化 之前在實驗室跑deeplab 也出現過類似問題,因為test的prototxt中有一層的名字和caffemodel中的不一樣,導致...

百面機器學習

目錄 第一章 特徵工程 1.1特徵歸一化 1.2高維組合特徵的處理 特徵工程 對原始資料進行一系列工程處理,將其提煉為特徵。作為輸入給演算法和模型使用。本質上,特徵工程是乙個表示和展現資料的過程。特徵工程旨在去除原始資料中的雜誌。結構化資料 類似於資料庫中的乙個表,每乙個行列都有清晰的定義,包含數值...