卷積的時候需要對卷積核進行180的旋轉,你知道嗎

2021-10-09 12:27:16 字數 809 閱讀 4888

這個問題我之前是有過疑問的,後來不知道啥原因又打消了這個疑問。今天又去看了一下github上的那篇文章:

deeplearning-500-questions/ch05_卷積神經網路(cnn)/第五章_卷積神經網路

裡面有這麼一段:

卷積的時候需要對卷積核進行180的旋轉!

這個和平時想的有點不一樣啊,平時看到的文章不都是那卷積核直接和影象做卷積的嗎?

網上搜到的卷積操作絕大部分是這樣介紹的,拿著卷積核直接和原圖進行卷積計算就行了。

也問了周圍的小夥伴,好像理解的和我差不多,覺得不用旋轉180度啊,這裡寫的有點多餘吧。

實際不是這麼回事!事實證明我真是個菜鳥【捂臉】!

上面這張圖的卷積核已經是原卷積核逆時針旋轉180度以後的樣子了,也就是說原卷積核應該是[[1, 0, -1], [1, 0, -1], [1, 0, -1]]。

標準卷積操作就要先將卷積核逆時針旋轉180度,再做乘積求和,沒有旋轉只有乘積求和就不叫卷積運算。

具體看看下面這篇文章,裡面解釋的比較清楚,我就不重複了。mark一下

什麼!卷積要旋轉180度?!

pytorch 自定義卷積核進行卷積操作

一 卷積操作 在pytorch搭建起網路時,大家通常都使用已有的框架進行訓練,在網路中使用最多就是卷積操作,最熟悉不過的就是 torch.nn.conv2d in channels,out channels,kernel size,stride 1,padding 0,dilation 1,grou...

卷積核的理解

數字訊號處理中卷積 卷積一詞最開始出現在訊號與線性系統中,訊號與線性系統中討論的就是訊號經過乙個線性系統以後發生的變化。由於現實情況中常常是乙個訊號前一時刻的輸出影響著這一時刻的輸出,所在一般利用系統的單位響應與系統的輸入求卷積,以求得系統的輸出訊號 當然要求這個系統是線性時不變的 卷積的定義 卷積...

卷積核引數的計算及1 1卷積核

首先,明確乙個概念 卷積並不只是乙個二維的過程,實際上對於輸入的一般而言是三個通道的 r g b 那為什麼輸出的結果可以是128個通道呢?實際上經過卷積過後的通道數是由卷積核的個數來決定的,整個的卷積過程二維情況下也就是在每個通道下發生的卷積過程為 在多通道情況下的卷積情況如下 其實濾波器的維度應該...