向量卷積和神經網格基礎(2)訊號感應

2021-09-28 21:56:02 字數 2513 閱讀 4863

咪付技術帶頭人代豪是向量卷積和神經網格模型的提出者和建立者,本文將簡單闡述向量卷積和神經網格模型的訊號感應方式。

訊號的基本感應方式

向量卷積和神經網格模型的訊號感應方式分靜態感應和動態感應兩種方式。當訊號階躍為0時,主要表現為靜態感應;當訊號階躍不為0時,主要表現為動態感應。由於訊號階躍是有方向的,並且有隨時間和位置變化的特點,因此我們在座標框架中加以描述,座標框架又分為位置座標框架和時間座標框架。

靜態感應

靜態感應方式對輸入訊號的絕對值敏感,感應訊號的絕對值大小。例如,如下圖所示,在t1、t2、t3時刻分別輸入訊號分別為s1、s2、s3, 通過靜態感應得到訊號s1、s2、s3的幅值大小分別為|s11|、|s22|和|s33|。

動態感應

動態感應方式對輸入訊號的階躍值敏感,感應相鄰訊號的相對階躍值大小。訊號的階躍值有根據位置座標的階躍值和時間座標的階躍值兩種,同一位置的訊號會隨時間變化而變化;而在同一時間,不同位置的訊號也會有差別。例如,下圖為物體在同一時間t1,不同位置p1、p2和p3處的訊號階躍以及在同一位置p1,不同時間t1、t2和t3的訊號階躍示例。

下圖是根據位置座標的相鄰訊號階躍差值示例,假設物體在同一時間t1,在不同座標位置p1、p2、p3、p4處的訊號分別為s1、s2、s3、s4,各相鄰訊號的相對階躍值大小分別表示為:v1=|s2-s1|,v2=|s3-s2|,v3= |s4-s3|。

下圖是根據時間座標的相鄰訊號階躍差值示例,假設物體在同一位置,不同時刻t1、t2、t3和t4座標位置的訊號分別為s11、s22、s33、s44,各相鄰訊號的相對階躍值大小分別表示為:v11=|s22-s11|,v22=|s33-s22|,v33= |s44-s33|。

訊號的基本感應輸出方式

訊號階躍的感應輸出有惰**應輸出、實時感應輸出、丟失感應輸出、衰減感應輸出、增強感應輸出和觸發感應輸出等。

01 惰**應

惰**應輸出,即延時輸出,階躍感知單元感知訊號後,延時一段時間才輸出已感知的訊號。比如,在t1、t2、t3時刻,分別輸入訊號s1、s2、s3,階躍感知單元感知訊號後,但並未立即輸出感知訊號s0,而是在t4時刻輸出s0,如下圖所示。

02 實時感應

實時感應輸出,階躍感知單元在感知訊號後,及時產生該位置座標或該時間座標的訊號輸出。如下圖所示,在t1時刻,輸入訊號為s1,階躍感知單元感知訊號後,立即輸出感知訊號s0;在t2時刻,輸入訊號為s2,階躍感知單元感知訊號後,立即輸出感知訊號s0;在t3時刻,輸入訊號為s3,階躍感知單元感知訊號後,立即輸出感知訊號s0。

03 丟失感應

丟失感應輸出,階躍感知單元在感知訊號後,輸出0訊號,即丟失了原始輸入訊號。

如下圖所示,在t1時刻,輸入訊號為s1,階躍感知單元感知訊號後,立即輸出0;在t3時刻,輸入訊號為s3,階躍感知單元感知訊號後,立即輸出0感知訊號,此為實時丟失感應。

04 衰減感應

衰減感應輸出,是指階躍感知單元在感知訊號後,輸出較原始輸入訊號更弱的感知訊號,使不相關目標或區域訊號值明顯小於需要關注的目標或區域的訊號值。比如在需要弱化影象背景、噪音等訊號時,採用衰減感應輸出。

示例如下:

原圖

衰減感應的結果

05 增強感應

增強感應輸出,是指階躍感知單元在感知訊號後,輸出較原始輸入訊號更強的感知訊號,使需要強調關注的目標或區域訊號值明顯大於周邊目標或區域的訊號值。比如在需要增強目標人物影象訊號時,採用增強感應輸出。

示例如下:

增強感應的結果

06 觸發感應

觸發感應輸出,即輸出連續變化的感應訊號,以捕捉連續全面的資訊。如下圖所示:

客觀世界通過光線產生視覺訊號,每個物體的紋理和深度以及運動都會產生訊號階躍,因此感應單元對訊號階躍的處理是視覺的基礎功能。​​​​

卷積神經網路基礎

卷積神經網路出現的意義 計算機視覺問題中,輸入的往往畫素都很高。例如,一張普通的畫素為1000 1000,那麼輸入x的維數就是1000 1000 3,w 1 就是乙個3,000,000列的矩陣。在神經網路中引數如此多的情況下,找到足夠多的資料來保證不發生overfitting是很難的。卷積神經網路就...

卷積神經網路 基礎

啟用函式 常用的啟用函式有sigmoid tanh relu等等,前兩者sigmoid tanh比較常見於全連線層,後者relu常見於卷積層。在卷積神經網路中,啟用函式一般用relu the rectified linear unit,修正線性單元 收斂快,求梯度簡單。計max 0,t 就是如果這個...

卷積神經網路基礎

資料輸入層 input layer 卷積計算層 conv layer relu激勵層 relu layer 池化層 pooling layer 全連線層 fc layer 該層要做的處理主要是對原始影象資料進行預處理,其中包括 去均值 把輸入資料各個維度都中心化為0,如下圖所示,其目的就是把樣本的中...