深度學習面試題

2022-08-14 13:03:13 字數 2356 閱讀 1631

1、介紹下卷積操作的作用

卷積網路中的卷積核引數是通過網路訓練出來的

通過卷積核的組合以及隨著網路後續操作的進行,卷積操作可獲取影象區域不同型別特徵;基本而一般的模式會逐漸被抽象為具有高層語義的「概念」表示,也就是自動學習到影象的高層特徵。

2、cnn結構特點

區域性連線,權值共享,池化操作,多層次結構。

1、區域性連線使網路可以提取資料的區域性特徵

2、權值共享大大降低了網路的訓練難度,乙個filter只提取乙個特徵,在整個(或者語音/文字) 中進行卷積

3、池化操作與多層次結構一起,實現了資料的降維,將低層次的區域性特徵組合成為較高層次的特徵,從而對整個進行表示。

3、cnn的特點以及優勢

cnn使用範圍是具有區域性空間相關性的資料,比如影象,自然語言,語音

區域性連線:可以提取區域性特徵。

權值共享:減少引數數量,因此降低訓練難度(空間、時間消耗都少了)。可以完全共享,也可以區域性共享(比如對人臉,眼睛鼻子嘴由於位置和樣式相對固定,可以用和臉部不一樣的卷積核)

降維:通過池化或卷積stride實現。

多層次結構:將低層次的區域性特徵組合成為較高層次的特徵。不同層級的特徵可以對應不同任務

4、cnn權值共享問題

首先權值共享就是濾波器共享,濾波器的引數是固定的,即是用相同的濾波器去掃一遍影象,提取一次特徵,得到feature map。在卷積網路中,學好了乙個濾波器,就相當於掌握了一種特徵,這個濾波器在影象中滑動,進行特徵提取,然後所有進行這樣操作的區域都會被採集到這種特徵,就好比上面的水平線。

5、什麼是感受野

後一層神經元在前一層神經元的感受空間;

注意:小卷積核(如33)通過多層疊加可取得與大卷積核(如77)同等規模的感受野,此外採用小卷積核有兩個優勢:

1、小卷積核需多層疊加,加深了網路深度進而增強了網路容量(model capacity)和複雜度(model complexity)

2、增強了網路容量的同時減少了引數個數。

6、簡單說說cnn常用的幾個模型

7、cnn是什麼,cnn關鍵的層有哪些?

cnn是卷積神經網路,其關鍵層有:

① 輸入層,對資料去均值,做data augmentation等工作

② 卷積層,區域性關聯抽取feature

③ 啟用層,非線性變化

④ 池化層,下取樣

⑤ 全連線層,增加模型非線性

⑥ 高速通道,快速連線

⑦ bn層,緩解梯度瀰散2、什麼是cnn的池化pool層?

池化,簡言之,即取區域平均或最大

8、pooling層作用

增加特徵平移不變性。匯合可以提高網路對微小位移的容忍能力。

減小特徵圖大小。匯合層對空間區域性區域進行下取樣,使下一層需要的參數量和計算量減少,並降低過擬合風險。

最大匯合可以帶來非線性。這是目前最大匯合更常用的原因之一。

9、卷積層和池化層有什麼區別

1、卷積層有引數,池化層沒有引數

2、經過卷積層節點矩陣深度會改變,池化層不會改變節點矩陣的深度,但是它可以縮小節點矩陣的大小。

10、卷積層引數數量計算方法

假設輸入層矩陣維度是3,第一層卷積層使用尺寸為 5 ∗ 5 55 5∗5、深度為16的過濾器(卷積核尺寸為 5 ∗ 5 55 5∗5、卷積核數量為16),那麼這層卷積層的引數個數為 5 ∗ 5 ∗ 3 ∗ 16 + 16 = 1216 個 553*16+16=1216個 5∗5∗3∗16+16=1216個

11、卷積層輸出大小計算

卷積中的特徵圖大小計算方式有兩種,分別是『valid』和『same』,卷積和池化都適用,除不盡的結果都向下取整。公式: o = ( w − f + 2 p ) / s + 1 o = (w-f+2p)/s+1 o=(w−f+2p)/s+1,輸入(input)大小為 i = w ∗ w i=ww i=w∗w,卷積核(filter)大小為 f ∗ f ff f∗f,步長(stride)為s,填充(padding)的畫素數為p。

1、same填充方式:填充畫素。conv2d函式常用。

2、valid填充方式:不填充畫素,maxpooling2d函式常用。"same"卷積方式,對於輸入5x5影象,影象的每乙個點都作為卷積核的中心。最後得到5x5的結果,通俗的來說:首先在原圖外層補一圈0,將原圖的第一點作為卷積核中心,若一圈0不夠,繼續補一圈0。如下圖所示:

深度學習筆試 面試題 三

1 宣告1 可以通過將所有權重初始化為0 來訓練網路。宣告2 可以通過將偏差初始化為0來很好地訓練網路 以上哪些陳述是真實的?a 1對2錯 b 1錯2對 c 1和2都對 d 1和2都錯 正確答案是 b 解析 即使所有的偏差都為零,神經網路也有可能學習。另一方面,如果所有的權重都是零 神經網路可能永遠...

深度學習面試題目 1

1 二者都是整合學習演算法,都是將多個弱學習器組合成強學習器的方法。2 bagging 套袋法 從原始資料集中每一輪有放回地抽取訓練集,訓練得到k個弱學習器.對於分類 將這k個弱學習器以投票的方式得到最終的分類結果。對回歸問題 計算上述模型的均值作為最後的結果。所有模型的重要性相同 3 boosti...

常見深度學習面試題總結

目錄 最常見的幾個問題 分類 機器學習 特徵工程 深度學習 計算機視覺cv 自然語言處理nlp 推薦系統 深度之眼學習筆記 1.線性回歸與邏輯回歸區別,lr與svm區別和聯絡 2.svm原理 3.手撕svm,k means源 1.寫出全概率公式 貝葉斯公式 2.模型訓練為什麼要引入偏差 bias 和...