解析卷積神經網路學習筆記 魏秀參

2021-10-03 18:49:17 字數 787 閱讀 8986

1.理解批處理和隨機梯度下降:

訓練模型時隨機選取n個訓練樣本作為乙個batch(批輸入),那麼經過設計好的卷積神經網路就可以輸出n個**值,對這n個**值求其損失函式(注意損失函式絕不是乙個樣本乙個樣本求的,它是n個樣本的總體誤差,需要除以n的),然後用梯度下降的方法更新引數,這樣的一次過程就叫批處理(mini-batch)

而我們選取樣本的方式是不放回隨機抽樣直至遍歷所有樣本,就是我理解的隨機梯度下降。

2.理解bp演算法:

基於鏈式法則,其實就是求偏導時換元的問題。

即x(i+1)對w(i)求偏導等於xi

3.理解卷積的操作:

對於黑白影象僅有乙個通道很好理解,就是用乙個二維(如3x3)的矩陣去不斷滑動黑白影象,提取特徵。

而對於彩色影象,有rgb三個通道,它的輸入比如是(6x6x3),這時我們乙個卷積核,注意是乙個卷積核,維度就是(比如3x3x3),卷積核的矩陣也需變成三個通道,然後對應相乘相加求和,得出只有乙個二維矩陣了。

注意乙個卷積核情況下會把原來輸入的三個通道的矩陣變成乙個通道,而我們可以選擇用多個卷積核,比如選三個卷積核,即3個3x3x3矩陣來做卷積運算,此時我們獲得矩陣就又有三個通道。

機器學習筆記22 神經網路 卷積神經網路

參考資料 面向機器智慧型的tensorflow實踐 keras example mnist cnn.py keras中文文件 常用層卷積層 卷積理解就是之前影象處理裡用作檢測邊緣 檢測角點的運算元,例如 輸入 12 34 begin 1 2 3 4 end 13 24 核 2 begin 2 end...

卷積神經網路筆記

一 卷積神經網路基礎 cnn是一種空間上共享引數的神經網路,它通過正向和反向傳播,自己學習識別物體。它可能有幾層網路構成,第一層是抽象層次的最底層,cnn一般把中的較小的部分識別成簡單的形狀,下一層將會上公升到更高的抽象層次,一般會識別更複雜的概念,以此類推,直至識別整個物體。cnn的學習方式 層次...

卷積神經網路筆記

卷積神經網路依舊是乙個可導的評分函式,該函式輸入為原始影象畫素,輸出是不同類別的評分。並假設輸入資料是影象,基於該假設,向結構中新增一些特有性質。常規神經網路的輸入是乙個向量,對大尺寸影象效果不好,效率低下,大量引數導致網路過擬合。神經元的各層三維排列 寬度,高度和深度 深度是指啟用函式資料體的第3...