1 卷積反向傳播

2021-09-25 12:32:49 字數 1345 閱讀 5378

1.x[0,0;,;]

x[n,c,h,w] n表示樣本標號,一般是乙個batch乙個batch輸入的 ,0表示樣本標號為0

c 表示影象的channel 對於灰度圖來講有三個r g b

h 表示影象的高

w 表示影象的寬

2.池化

mean

forward:[1 3;2 2]->[2]

backward[2] ->[0.5 0.5; 0.5 0.5]

maxforward:[1 3;2 2]

backward[3]->[0 3;0 0]

w1                   w2      w3
data ->卷積層->relu ->pooling->全連線->score

只有卷積層和全連線層有引數

#compute the foward pass 前向傳播

a1,cache1 = conv_relu_pool_forward(x,w1,b1,conv_param,pool_param

a2,cache2=affine_relu_forward(a1,w2,b2)

scores,cache3 =affine_forward(a2,w3,b3)

#copute  the backward pass

data_loss,dscores=softmax_loss(scores,y)

da2,dw3,db3=affine_backward(dscores,cache3)

da1,dw2,db2=affine_relu_backward(da2,cache2)

dx,dw1,db1=conv_relu_pool_backward(da1,cache1)

#add regularization

dw1 +=self.reg*w1

dw2 +=self.reg*w2

dw3 +=self.reg*w3

reg_loss = 0.5*self.reg*sum(np.sum(w*w) for w in [w1,w2,w3])

loss =data_loss +reg_loss

grads =

return loss,grads

stride表示步長,pad

假設3232卷積之後就變成2828

conv_forward_*****(x,w,b,conv_param);

首先確定步長,pad

確定x,w

填充步長

確定卷積後的骨架

《1。卷積神經網路》

1.簡述卷積的基本操作,並分析其與全連線層的區別 答 具有區域性連線和權值共享的特點。卷積操作能夠在輸出資料中大致保持輸入資料的結構資訊 2.在卷積神經網路中,如何計算各層的感受野大小?答 3.卷積層的輸出尺寸 參數量和計算量 答 輸出尺寸 1.簡述分組卷積及其應用場景 答 分組卷積就是將輸入通道和...

1 1卷積詳解

可以看作對某個區域性的加權求和 它是對應區域性感知,它的原理是在觀察某個物體時我們既不能觀察每個畫素也不能一次觀察整體,而是先從區域性開始認識,這就對應了卷積。卷積核的大小一般有1x1,3x3和5x5的尺寸。卷積核的個數就對應輸出的通道數,這裡需要說明的是對於輸入的每個通道,輸出每個通道上的卷積核是...

卷積神經網路學習1 卷積層

卷積神經網路常用於計算機視覺當中,應用在計算機視覺當中,就要面臨乙個挑戰,那就是輸入資料非常的大,假如輸入乙個1000 1000的,那麼他就有1000 1000 3 的rgb三通道 個資料,對於300w的資料量,那麼當我們第乙個隱藏層有1000個神經元進行全連線時,那麼將會有300w 1000個引數...