關於卷積神經網路的一些定義

2021-09-14 00:05:25 字數 1918 閱讀 4173

卷積神經網路(convolutional neural networks, cnn)是一類包含

卷積計算且具有深度結構的

前饋神經網路

(feedforward neural networks),是

深度學習

(deep learning)的代表演算法之一

[1-2]

。由於卷積神經網路能夠進行平移不變分類(shift-invariant classification),因此也被稱為「平移不變人工神經網路(shift-invariant artificial neural networks, siann)」

[3] 。

附註一些定義: ①、

卷積是分析數學

中一種重要的運算。

設:f(

x),g(

x)是r1上的兩個可積函式,作積分:

可以證明,關於幾乎所有的實數

x,上述積分是存在的。這樣,隨著

x的不同取值,這個積分就定義了乙個新函式

h(x)

,稱為函式f與

g的卷積,記為

h(x)=(f*g)(x)。

②、前饋神經網路是一種最簡單的

神經網路

,各神經元分層排列。每個神經元只與前一層的神經元相連。接收前一層的輸出,並輸出給下一層.各層間沒有反饋。 ③、

人工神經網路(artificial neural networks,簡寫為anns)也簡稱為神經網路(nns)或稱作連線模型(connection model),它是一種模仿動物神經網路行為特徵,進行分布式並行資訊處理的演算法數學模型。這種網路依靠系統的複雜程度,通過調整內部大量節點之間相互連線的關係,從而達到處理資訊的目的。

人工神經網路按其模型結構大體可以分為前饋型網路(也稱為多層感知機網路)和反饋型網路(也稱為hopfield網路)兩大類,前者在數學上可以看作是一類大規模的非線性對映系統,後者則是一類大規模的非線性動力學系統。它們的結構模型如圖1、圖2所示,圖中圓圏代表神經元,其間的有向連線代表神經元突觸。按照學習方式,人工神經網路又可分為有導師學習和無導師學習兩類;按工作方式則可分為確定性和隨機性兩類;按時間特性還可分為連續型或離散型兩類,等等。

由於使用

梯度下降

的原始畫素值歸一化至 [0,1]區間

。輸入特徵的標準化有利於提公升演算法的執行效率和學習表現

。卷積神經網路的隱含層包含

卷積層、池化層和全連線層3類常見構築,

卷積層和池化層為卷積神經網路特有。

①卷積層(convolutional layer)

功能是對輸入資料進行特徵提取

,其內部包含多個卷積核,組成卷積核的每個元素都對應乙個權重係數和乙個偏差量(bias vector),類似於乙個前饋神經網路的神經元(neuron)。卷積層引數包括卷積核大小、步長和填充。

池化層(pooling layer)

在卷積層進行特徵提取後,輸出的特徵圖會被傳遞至

池化層進行特徵選擇和資訊過濾

。池化層包含預設定的池化函式,其功能是將特徵圖中單個點的結果替換為其相鄰區域的特徵圖統計量。池化層選取池化區域與卷積核掃瞄特徵圖步驟相同,由池化大小、步長和填充控制。

全連線層(fully-connected layer)

卷積神經網路中的全連線層等價於傳統前饋神經網路中的隱含層。全連線層通常搭建在卷積神經網路隱含層的最後部分,並只向其它全連線層傳遞訊號。

特徵圖在全連線層中會失去3維結構,被展開為向量並通過激勵函式傳遞至下一層

。卷積神經網路中輸出層的上游通常是全連線層,因此其結構和工作原理與傳統前饋神經網路中的輸出層相同。對於影象分類問題,

輸出層使用邏輯函式或歸一化指數函式(softmax function)輸出分類標籤。

卷積神經網路/17541100?fr=aladdin

卷積神經網路 定義卷積層

import torch in channels,out channels 5,10 in 決定卷積核的channel out 決定卷積核的個數 width,hight 100,100kernel size 3 卷積核的邊長 卷積核一般為奇數邊長正方形 batch size 1input torch...

關於卷積神經網路該如何理解的一些思考

最近思考了一下關於 卷積神經網路 該如何去理解的問題。很多文章說,越到後邊的卷積層,就會有組合多個特徵的能力。但是我們每個卷積層不是有很多卷積核嗎,每個卷積核不是濾波器嗎,前幾層把特徵都濾掉了。怎麼得到的如下所示的圖?後來我想到可以這樣理解 假設乙個卷積核可以過濾出橫線,而且過濾效果非常好,那麼影象...

關於神經網路的一些認識

如果說線性分類器使用直線作為分類的邊界,那麼神經網路則是在使用線性分類的基礎上加了非線性的分類,也就是曲線。直接說就是,比如在svm上是權重w與輸入x相乘之後就是計算損失函式 直接使用w權重矩陣對輸入x進行分類,而神經網路是在使用w權重對輸入x進行分類之前,先用啟用函式計算輸入x的值,而神經網路裡則...