深度學習面試準備

2021-10-24 16:54:39 字數 917 閱讀 6489

深度學習離不開神經網路,我主要是做視覺方面的,所以做線性回歸問題不多,主要是影象方面的問題,例如影象分類(classification) 檢測 (detection)語義分割 例項分割(segmentation) 主要會涉及到 卷積神經網路 cnn

本人對卷積神經網路的基本結構比較熟悉,所以就先直接介紹cnn 領域上面幾個非常有影響力的網路結構說起,並在介紹過程中,會對這個網路的一些trick 進行講解,對這個網路進行點評

講了bn的作用,對輸入資料變換到均值為0,方差為1的正太分布

大話cnn經典模型:alexnet

開始用了乙個特別大的11*11卷積 不好

vggnet 已經開始使用全連線轉卷積操作,該操作可以使得輸入的尺寸可以任意大小,不需要resize到同乙個尺寸

大話cnn經典模型:googlenet(從inception v1到v4的演進)

inception 機制  多尺度融合 inception 1*1卷積  1*n ——> n*1卷積 可以實現降維 inception v4借鑑了殘差網路的 sortcut connection

大話深度殘差網路(drn)resnet網路原理

shortcut connection 捷徑連線  

densenet:比resnet更優的cnn模型

這個github裡有resnet vgg16 等的tensorflow 2.0 實現**

深度學習面試

cnn抓住此共性的手段主要有四個 區域性連線 權值共享 池化操作 多層次結構。relu 解決了gradient vanishing問題 在正區間 計算速度非常快,只需要判斷輸入是否大於0 收斂速度遠快於sigmoid和tanh loss.有哪些定義方式 基於什麼?有哪些優化方式,怎麼優化,各自的好處...

深度學習面試

1.列舉常見的一些範數及其應用場景,如l0,l1,l2,l frobenius範數 2.簡單介紹一下貝葉斯概率與頻率派概率,以及在統計中對於真實引數的假設。3.概率密度的萬能近似器 4.簡單介紹一下sigmoid,relu,softplus,tanh,rbf及其應用場景 5.jacobian,hes...

自行準備深度學習訓練資料

深度學習的模型訓練中,資料的收集十分重要,取得足夠的資料集對於最終模型的表現有十分重要的意義。但是開源的資料集都指定了特定的目標進行標註,如行人,車輛。當要訓練自己所需要的特定檢測模型,卻又沒有開源資料集的時候,就需要自己去收集和標註影象資料用於訓練了。先輸入下面兩行指令,按序號為所有檔案命名,而且...