深度學習中為什麼普遍使用BGR而不用RGB?

2021-10-09 15:21:22 字數 872 閱讀 8737

知乎:深度學習中為什麼普遍使用bgr而不用rgb?

halcon學習之三:有關影象通道的函式(r是三通道,b是1通道,g二通道),排列順序bgr:

知乎:一直不明白,在下邊的**中:

im[:,

:,0]

-=103.939

im[:,:

,1]-

=116.779

im[:,:

,2]-

=123.68

這三行是什麼意思?

def load_image

(imageurl)

: im = cv2.

resize

(cv2.

imread

(imageurl,0)

,(28,

28),cv2.imread_grayscale)

.astype

(np.float32)

im[:,

:,0]

-=103.939

im[:,

:,1]

-=116.779

im[:,

:,2]

-=123.68

im = im.

transpose((

2,0,

1)) im = np.

expand_dims

(im,axis=3)

return im

輸入三通道的去各個維度的均值在利用神經網路解決問題時,是常見的預處理操作上面的三個數值是imagenet資料集的統計結果imagenet平均 bgr [103.939, 116.779, 123.68](注意通道順序)去均值,有利於三通道的訓練效果

為什麼OpenCV使用BGR而非RGB格式

日常開發和交流時,我們習慣將的顏色通道按照rgb red,green,blue 進行排列。閒來無聊,在把玩卷積神經網路模型時發現opencv並沒有按照這個順序讀入。好奇地搜尋一下opencv為什麼使用bgr而非rgb。看到這篇博文 why does opencv use bgr color form...

為什麼需要深度學習

為了科研專案的需求,作為在博一快結束時轉而進行機器學習領域的研究。周圍沒有同事從事相關的研究,用最快的速度完成了對機器學習和深度學習的了解。我感覺經常問自己的乙個問題就是為什麼要從機器學習到深度學習?對我的科研工作有沒有幫助。我主要看了兩個資料 deep learning book mit intr...

為什麼是深度學習

是不是深度學習的hidden layer越多越好,我們並不是單純的研究引數增多的所帶來的效能改善,我們關注的是相同的引數情況下,是不是深度越深越好。那麼是什麼樣的原因出現上邊的情況呢?乙個合理的解釋就是modularization。modularization把本來複雜的問題變簡單,即使traini...