深度學習面試題目 1

2021-09-26 10:31:59 字數 1208 閱讀 3744

1、二者都是整合學習演算法,都是將多個弱學習器組合成強學習器的方法。

2、bagging(套袋法):從原始資料集中每一輪有放回地抽取訓練集,訓練得到k個弱學習器.。

對於分類:將這k個弱學習器以投票的方式得到最終的分類結果。

對回歸問題;計算上述模型的均值作為最後的結果。(所有模型的重要性相同)

3、boosting:每一輪根據上一輪的分類結果動態調整每個樣本在分類器中的權重,訓練得到k個弱分類器,他們都有各自的權重,通過加權組合的方式得到最終的分類結果。

1、在傳統機器學習和深度學習中都會用到這項技術,作用是將某一特徵的資料縮放到(-1,1)或者(0,1)之間。

2、首先,這樣能夠規避掉不同特徵之間量綱商上的差異。

3、其次,這樣能夠減小波動的範圍,讓引數學習更簡單,從而加快收斂。(可以理解為相同學習率下,使目標平面更加平滑)

4、同時,對於一些sigmoid之類的啟用函式,太大的值會使得啟用值集中在頭尾兩處梯度較小的地方,使得模型難以學習。(為什麼自己訓練keras-fashion-mnist的時候,在mxnet效果可以,在keras上效果不佳原因)

1、這是在深度學習模型中經常會用到技巧。首先說說加它的原因。

2、雖然我們對輸入進行了歸一化,但是網路的深度使得開頭一點點波動,到後面都會被放大,從而使得最終的優化平面仍然變得十分的陡峭。

3、那麼,我們想,對於每一層的輸出,我都模仿最開始的輸入,給它做乙個歸一化,相當於對下一層的cnn開頭做乙個歸一化,那麼這樣效果會不會好呢?

4、事實證明,這樣的確能夠使得優化平面變得更加的光滑。

5、那麼先來看看bn是怎麼操作,

5.1 bn是基於batch的,設每個batch有m個樣本。

5.2 對於每個神經元,它對第k個樣本的輸出,x^k=(xk-μ)/var

5.3 xk是原始輸出,μ是在m個樣本上原始輸出的均值,var是方差。

5.4 最後x^k^f=γ*x^k+β,γ和β是可以學習的,為的是重新學習到x^k原始的特徵分布。(即,如果學習下來覺得歸一化不需要,那麼讓最後γ等於var,β就是μ了。)

6、還有一些group,layer,什麼的,都是計算μ和β的方法不同而已。

7、最後,bn層的位置,**中是放在啟用層之前的

深度學習面試題

1 介紹下卷積操作的作用 卷積網路中的卷積核引數是通過網路訓練出來的 通過卷積核的組合以及隨著網路後續操作的進行,卷積操作可獲取影象區域不同型別特徵 基本而一般的模式會逐漸被抽象為具有高層語義的 概念 表示,也就是自動學習到影象的高層特徵。2 cnn結構特點 區域性連線,權值共享,池化操作,多層次結...

筆試面試題目1

1.求重合段的長度 size t foo unsigned int a1,size t al1,unsigned int a2,size t al2 其中a1和a2都為無符號陣列,al1和al2為陣列的長度,陣列的長度為偶數。無符號陣列由一對數字區間組成。如下例 a1 為 0,1,3,6,10,20...

機器學習面試題目

過擬合原因 資料 資料不規範,資料量少,資料穿越,統計特徵用到了未來的資訊或者標籤資訊 演算法 演算法過於複雜 解決 1 將資料規範化,處理缺失值,增加資料量,取樣,新增雜訊資料 2 正則化,控制模型複雜程度,3 early stoping,減少迭代次數,減少樹的深度,4 學習率調大 小點 5 融合...