多層感知器

2021-09-26 00:09:30 字數 893 閱讀 2539

在介紹單層感知器的時候,我們提到對於非線性可分問題,單層感知器是很難解決的,比如下面這個例子:

很簡單的乙個分布,但事實上就是無法用直線進行分類,後來就出現了多層感知器,主要改變的地方是把第一層的感知器的輸出作為第二層感知器的輸入,即使只是簡單新增一層感知器,也足以解決xor問題,關鍵的原因是,多了一層感知器,就像對原來的輸入做了乙個對映,第一層感知器的目的是對輸入進行對映使得資料在新的空間能夠線性可分,然後我們再利用第二層感知器對資料進行分類,我們通過訓練模型,使得第一層感知器能更好地重新對映原輸入,第二層感知器能更好地分類。

接下來結合下圖介紹一下多層感知器的一些術語和結構。

多層感知器,又叫深度前饋網路、前饋神經網路。最左邊的是輸入層,就是我們的輸入資料,最右邊的是輸出層,中間的就是隱藏層(因為訓練資料並沒有直接表明隱藏層的每一層的所需輸出),實際上就是由感知器構成。從現在開始,感知器就開始稱為神經元,而這整個包含了輸入層、隱藏層和輸出層的結構就是大名鼎鼎的神經網路。可以看到相鄰層之間的神經元是全連線的。

多層感知器的學習過程也是和感知器接近,主要都是計算訓練資料的輸出,根據**輸出和實際輸出之間的差異去調整神經元的權值和閾值,不斷迭代訓練直到誤差小於一定範圍。同時也可能有一種情況,就是迭代次數已經很大可是模型依然無法得到很好的訓練效果,這時我們就需要調整模型的超引數,比如神經元的數量、隱藏層的層數等等。基本上,這個過程和之前的線性回歸等機器學習過程是一致的。

想瀏覽更多關於數學、機器學習、深度學習的內容,可瀏覽本人部落格

多層感知器(MLP)

一.簡述多層感知器 mlp 1.深度前饋網路 deep feedforward network 也叫前饋神經網路 feedforward neuarl network 或者多層感知機 multilayer perceptron,mlp 是典型的深度學習模型。這種模型被稱為前向 feedforward...

10 28 多層感知器

loc函式 通過行索引 index 中的具體值來取行資料 如取 index 為 a 的行 iloc函式 通過行號來取行資料 如取第二行的資料 pandas中loc和iloc函式用法詳解 原始碼 例項 import tensorflow as tf from tensorflow.keras impo...

tensorflow 啟用函式,多層感知器

啟用函式 1.relu 遮蔽掉 為0的 2.sigmoid 輸出範圍 x軸靠近0,梯度變化大,遠離0的時候,就變化很小 3.tanh 範圍 1 到 1 4.leak relu import tensorflow as tf import numpy as np import pandas as pd...