神經網路學習之感知器

2021-10-09 02:55:01 字數 1432 閱讀 8557

基於m-p模型中權重引數需要人為設定的問題,2023年羅森布拉特(roseblatt)提出了感知器,經過訓練,計算機能夠確定神經元的連線權重,由此,神經網路迎來了第一次熱潮。

感知器主要有輸入層和輸出層,其中,輸入層接收外界輸入訊號後傳遞給輸出層,輸出層是m-p神經元。

表示式

誤差修正學習策略:設定訓練樣本和期望輸出,然後調整實際輸出和期望輸出之差。

引數自動調整策略如圖所示:

其中a是連線權重調整數值的引數,用於控制誤差修正速度,增加其值則增大則增加速度,減小其值則降低修正速度。(該引數又稱學習率,學習率如果過大會影響訓練的穩定性,如果太小會使得訓練的收斂速度變慢)

(圖**網路)

感知器訓練只能解決如上圖(a)所示的線性可分問題,不能解決如上圖(b)的線性不可分問題。

其實上圖(a)是與運算的二維平面分布圖,上圖(b)是異或運算的二維平面分布圖;

下面重點說一下異或運算,異或運算法則如下:

通過異或運算可知,(0,0)與(1,1)是一類,(0,1)和(1,0)是一類。

因此,單層感知器無法解決最簡單的非線性可分問題——異或問題

那麼如何解決這乙個問題呢?——需要引入多層感知器。

為了解決線性不可分問題,我們需要使用多層感知器。

多層感知器是由多層結構的感知器遞階組成的輸入值向前傳播的網路,也稱前饋網路或向行傳播網路。一般包括輸入層,中間層(或稱為隱層)和輸出層。結構如下:

通過下面的圖直觀展示一下單層感知器和多層感知器在分類中的效果,如下圖所示。

(該圖**於網路

由上圖可以看出,隨著隱層層數的增多,凸域將可以形成任意的形狀,因此可以解決任何複雜的分類問題。

1、多層感知器之間也是通過誤差修正學習確定兩層之間的連線權重。

2、誤差修正學習無法跨層調整,因此無法進行多層訓練。

3、初期感知器在輸入和中間層之間的連線權重採用隨機數確定,而在中間層與輸出層採用誤差修正學習。這種方法不足在於輸入資料不同,但在中間層的值卻相同,影響分類準確性。

如何解決不足?——誤差反向傳播演算法。

神經網路之 感知器

在神經網路中,我們主要使用的是一種稱為s型神經元的神經元模型。感知器就是我們所謂的 人工神經元 那麼感知器怎麼工作的呢,接下來我們來談談。1.感知器工作機制 上圖中有x1,x2和x3輸入,一般情況下我們可以引入權重w1,w2和w3來表示輸入對輸出的重要性,這時可以計算w1 x1 w2 x2 w3 x...

神經網路 異或 神經網路學習之感知器

基於m p模型中權重引數需要人為設定的問題,1958年羅森布拉特 roseblatt 提出了感知器,經過訓練,計算機能夠確定神經元的連線權重,由此,神經網路迎來了第一次熱潮。感知器結構 感知器主要由輸入層和輸出層,其中,輸入層接收外界輸入訊號後傳遞給輸出層,輸出層是m p神經元。表示式 感知器如何自...

人工神經網路之感知器演算法

感知器作為人工神經網路中最基本的單元,有多個輸入和乙個輸出組成。雖然我們的目的是學習很多神經單元互連的網路,但是我們還是需要先對單個的神經單元進行研究。感知器演算法的主要流程 首先得到n個輸入,再將每個輸入值加權,然後判斷感知器輸入的加權和最否達到某一閥值v,若達到,則通過sign函式輸出1,否則輸...