新生學習 第二週 卷積神經網路 part 1

2022-05-14 17:51:32 字數 1156 閱讀 8896

deadline: 2020-08-01 22:00

這部分是桑老師給課程加的內容,大家看看,科普下就好,看不太明白也沒有關係

主要內容包括:

主要內容包括:殘差學習的基本原理、恒等對映和shotcut、使用 pytorch 實現 resnet152

**練習需要使用谷歌的 colab ,大家有任何問題可以隨時在群裡 at 我。有部分同學已經做過這部分**練習,可以略過。

構建簡單的cnn對 mnist 資料集進行分類。同時,還會在實驗中學習池化與卷積操作的基本作用。

使用 cnn 對 cifar10 資料集進行分類

要求:這部分為 kaggle 於 2013 年舉辦的貓狗大戰競賽,使用在 imagenet 上預訓練的 vgg 網路進行測試。因為原網路的分類結果是1000類,所以這裡進行遷移學習,對原網路進行 fine-tune (即固定前面若干層,作為特徵提取器,只重新訓練最後兩層)。

仔細研讀ai研習社猫狗大戰賽題的要求: (目前比賽已經結束,但仍可做為練習賽每天提交測試結果)

我按照上週提交作業的先後次序,抽了解志傑王炳路馮敏三個同學做分享。我指定乙個知識點或****來閱讀,然後下周四(7月30日)下午用ppt分享,大家一起學習。

馮敏:閱讀《hybridsn: exploring 3-d–2-d cnn feature hierarchy for hyperspectral image classification》

完成一篇部落格,題目為「 第二次作業:卷積神經網路 part 1」,部落格內容包括三部分:

在谷歌 colab 上完成**練習,關鍵步驟截圖,並附一些自己的想法和解讀。(以前已進行過**練習的同學可以略過此步驟)

本部分供有餘力的同學選做。結合**自學谷歌提出的 inception v1 至 v4, 以及 mobilenets,整理乙個學習心得。

本部分僅供有餘力的同學選做。

比賽時間為7月24日至8月22日,來自德國海德堡大學影象處理合作專案,提交結果只要大過標準分40就有獎金。

如果在這個比賽中取得乙個不錯的名次,寫在簡歷裡面,也算乙個不大不小的亮點了 ~~~ 感興趣的同學加油!

深度學習(二 卷積神經網路)

主要層結構 卷積層 池化層 全連線層。神經元個數 乙個卷積層的輸出是20 20 32,則神經元的個數為 20 20 32 12800 濾波器視窗大小 3 3,輸入的資料體深度10,則每個神經元有 3 3 10 900引數 總的引數 12800 900 11520000個引數 引數共享 32個濾波器,...

《1。卷積神經網路》

1.簡述卷積的基本操作,並分析其與全連線層的區別 答 具有區域性連線和權值共享的特點。卷積操作能夠在輸出資料中大致保持輸入資料的結構資訊 2.在卷積神經網路中,如何計算各層的感受野大小?答 3.卷積層的輸出尺寸 參數量和計算量 答 輸出尺寸 1.簡述分組卷積及其應用場景 答 分組卷積就是將輸入通道和...

卷積神經網路學習1 卷積層

卷積神經網路常用於計算機視覺當中,應用在計算機視覺當中,就要面臨乙個挑戰,那就是輸入資料非常的大,假如輸入乙個1000 1000的,那麼他就有1000 1000 3 的rgb三通道 個資料,對於300w的資料量,那麼當我們第乙個隱藏層有1000個神經元進行全連線時,那麼將會有300w 1000個引數...