感知神經網路模型與學習演算法

2021-07-24 22:41:49 字數 1953 閱讀 4834

該概念的是在2023年美國學者rosenblatt提出的。

感知器是監督學習的神經網路模型。單層感知器是包含乙個突觸權值可調的神經元的感知器模型。是神經網路用來進行模式識別的一種最簡單的模型,屬於前向神經網路型別,但是僅由乙個神經元組成的單層感知器只能區分線性可分的模式。

乙個感知器模型,包括乙個線性的累加器和乙個二值閾值元件,同時還有乙個外部偏差b,也稱作閾值,其值可以為正,也可以為負。線性累加器的輸出與偏差b的和作為二值閾值元件的輸入,這樣當二值閾值原件的輸入是正數時,神經元就產生輸出+1,反之,若輸入是負數,則產生輸出-1

在m維空間,單層感知器進行模式識別的判決超平面由下面的式子決定:∑i

=1mω

ixi+

b=0

決定判別邊界超平面的形狀的主要引數是權值向量ω→

其訓練過程就是找到適合的學習演算法可以訓練出滿意的權值向量。

在20世紀60年代初期,rosenblatt等就給出了嚴格的數學證明對線性可分的樣本,演算法一定是收斂的,就是說ω→

一定存在,否則,判別邊界會產生振盪,導致ω→

不能收斂。

該學習演算法是基於迭代思想,通常是採用誤差校正學習規則的學習演算法。將偏差b作為神經元突觸全職向量的第乙個分量加到權值向量中去,那麼對應的輸入向量也應增加一項,可設輸入向量的第乙個分量固定為+1,這樣輸入向量和權值向量可分別寫成如下的形式: x(

n)=(

+1,x

1(n)

,x2(

n),⋯

,xm(

n))t

w(n)=(b

(n),

ω1(n

),ω2

(n),

⋯,ωm

(n))

其中n為迭代次數。b(n)可用ω0

(n) 來表示,於是,二值閾值元件的輸入可重新寫為: v=

∑i=0

mωi(

n)xi

(n)=

wt(n

)x(n

) 具體學習演算法如下:

設定變數和參量 x(

n)=(

1,x1

(n),

x2(n

),⋯,

xm(n

))即訓練樣本。 w(

n)=(

b(n)

,ω1(

n),ω

2(n)

,⋯,ω

m(n)

) 為權值向量。

b(n)為偏差 f(

⋅)為啟用函式, y(n)為網路實際輸出,d(n)為期望輸出,

η 為學習速率,n為迭代次數,e為實際輸出與期望輸出的誤差。

初始化,給權值向量w(0)的各個分量賦乙個較小的隨機非零值, 設定n=0

輸入一組樣本x(

n)=(

1,x1

(n),

x2(n

),⋯,

xm(n

))並給出它的期望輸出d(n)

計算實際輸出 y(

n)=f

(∑mi

=0ωi

(n)x

i(n)

) 求出期望輸出和實際輸出的誤差, e=

d(n)

−y(n

) ,根據誤差判斷目前輸出是是否滿足條件,若滿足條件則演算法結束,否則將n值加1,並用下式調整權值ω(

n+1)

=ω(n

)+η[

d(n)

−y(n

)]x(

n)在單層感知器學習演算法中,最關鍵的因素是引入了乙個量化的期望輸出,這樣就可以採用誤差校正學習規則對權值向量逐步進行修正,最終達到問題所需的精度。

對於線性可分的兩類模式,可以證明單層感知器的學習演算法是收斂的,即通過調整神經網路各個鏈結權值可以得到合適的判別邊界,正確區分兩類模式;而對於線性不可分的兩類模式,無法用一條直線區分兩類模式,此時,單層感知器的學習演算法不是收斂的,即單層感知器無法正確區分線性不可分的兩類模式。

感知神經網路模型與學習演算法

該概念的是在1957年美國學者rosenblatt提出的。感知器是監督學習的神經網路模型。單層感知器是包含乙個突觸權值可調的神經元的感知器模型。是神經網路用來進行模式識別的一種最簡單的模型,屬於前向神經網路型別,但是僅由乙個神經元組成的單層感知器只能區分線性可分的模式。乙個感知器模型,包括乙個線性的...

BP神經網路模型與學習演算法

一,什麼是bp bp back propagation 網路是1986年由rumelhart和mccelland為首的科學家小組提出,是一種按誤差逆傳播演算法訓練的多層前饋網路,是目前應用最廣泛的神經網路模型之一。bp網路能學習和存貯大量的輸入 輸出模式對映關係,而無需事前揭示描述這種對映關係的數學...

BP神經網路模型與學習演算法

一,什麼是bp bp back propagation 網路是1986年由rumelhart和mccelland為首的科學家小組提出,是一種按誤差逆傳播演算法訓練的多層前饋網路,是目前應用最廣泛的神經網路模型之一。bp網路能學習和存貯大量的輸入 輸出模式對映關係,而無需事前揭示描述這種對映關係的數學...