深度學習 自學筆記

2021-10-23 10:45:52 字數 740 閱讀 9515

要求基礎: python基礎學會

本人大二由於有老師引導學習深度學習所以能堅持學下去,在這裡記錄學習過程方便以後查閱。

由於是自學所以學習過程是需要復現的,方便以後查閱·翻找。在網上查資料的缺點是資料數量龐大為了找到自己需要的都要看一遍,所以在看的時候碰見有用的需要記錄下來。我直接鏈結位址,下面的鏈結可能多一些,不過我都會註明鏈結主要內容。

環境安裝:

編譯環境 :

環境版本

python

3.6(3.7)

pytorch(這個版本可能不一樣,但是不影響後續學習)

1.6.0

如果你沒有安裝上環境:

那麼看我這篇文章 :

pytorch python=3.6環境安裝

如果你已經安裝上了那麼往下看:

一階段認識深度學習

網上的資源很多

手寫數字識別 python pytorch 二 之手寫數字**

三階段目標檢測演算法:yolo v3

訓練資料集coco

由於資料集過大,一般電腦訓練時間太長,直接用官網的引數

我就是這麼幹的。

yolo v3學習模型講解:

參考資料:yolov3**詳解一

yolov3**詳解二

yolov3**詳解三

yolov3**詳解四

四階段人體關鍵點檢測:

無,等更新。

要求linux系統,所以完結。

深度學習自學筆記 06

均方誤差 usr bin env python coding utf 8 time 2020 2 28 18 30 author lzq software pycharm 公式含義 e 0.5 sum yk tk 2 yk是表示神經網路的輸出,tk表示監督資料,k表示資料的維數 import num...

深度學習 自學手冊

機器學習 神經網路 前饋神經網路 沒有迴路的 反饋神經網路 有迴路的 dnn 深度神經網路 cnn 卷積神經網路 rnn 迴圈神經網路 lstm 是rnn的一種,長短期記憶網路 自然語言處理 神經元 分類器 hebb 學習方法,隨機 類似sgd 一篇神經網路入門 bp反向傳播,表示很複雜的函式 空間...

深度學習筆記

在深度神經網路中,通常使用一種叫修正線性單元 rectified linear unit,relu 作為神經元的啟用函式。relu函式其實是分段線性函式,把所有的負值都變為0,而正值不變,這種操作被成為單側抑制。可別小看這個簡單的操作,正因為有了這單側抑制,才使得神經網路中的神經元也具有了稀疏啟用性...