神經網路可以計算哪些函式

2021-08-15 17:12:13 字數 2344 閱讀 4981

神經網路可以計算什麼樣的函式? 答案是任何函式。本文將用影象來證明神經網路可以模擬任何的空間上的座標,而且網路節點越多,精度越高。

乙個輸入和乙個輸出的普遍型:

對於f(x)=sigmoid(wx+b)來說,w越大,s形狀越陡,階躍發生在s=-b/w的位置,階躍的位置與w成反比,與b成正比

我們用乙個引數s替換

w和b來簡化神經元的描述難度

例如只觀察隱藏層上面這個神經元,當

w=1000

,b=-400

時,圖形曲線如下:

當然這樣簡化的前提是

w是個很大的值,以至於

sigmoid的s

曲線趨近與階躍函式。

到目前為止,我們只是考慮了隱藏層的上面的這個單個節點,如果考慮到更多的節點,網路和輸出曲線是這樣的:

s決定了階躍點,權重

w決定了函式變化的方向和高度。 當

w1為n,

w2為-n時,這種情況就會在輸出圖中形成乙個凸起,我們用乙個

h來標識±

w,那麼稍微

4個節點的神經網路可以表示為:

我們可以通過改變

h來任意的改變期望高度,再看個更複雜的例子:

那麼有了這些理論基礎,我們就可以通過s和

h來描述任意的曲線,只要我們的神經網元足夠多,可以將

x軸拆分的足夠細,精度就會足夠高。圖中藍色曲線是任意的函式曲線,桔色是我們通過

s+h擬合出的結果。

多個輸入變數的普遍性:

很難從視覺或者腦空間想象來解釋

3個輸入以上場景,所以對多個輸入變數的推理就從

2個輸入變數開始,然後剩下的只能靠推理和腦補了。

現在有x和

y兩個輸入變數,當固定了其中

y的許可權w為

0後,那麼

output與x

和y的關係圖如下:

延續前一章節乙個變數時

s=-wb

的原理,當

w很大時,

s被稱為階躍點;由於現在是多維,所以

s還要多增加乙個維度的資訊,上圖當

w很大時,我們用

xs來標識

x座標上的階躍點,如下:

同理可以推出ys:

同乙個變數時一樣再引入

h這個概念,如果只有

xs的神經網元,效果如下:

如果xs和ys

的神經網元都存在的情況下,效果如下:

當我們改變

h到乙個比較大的值,然後偏置b≈

-3h/2

時,該網路的輸出會變成乙個錐形:

其實這個啟示已經很明顯了,如果乙個錐看不出來,假設網路規模翻一倍,就可以展示

2個錐:

每個錐的錐頂代表了一組輸出資料的區域,這樣就跟單變數輸入時一樣,只要神經元節點夠多,網路規模夠大,我們就可以構造足夠多的錐,那麼就可以證明目前這個神經網路可以模擬所有的輸出。 超過

2個變數,神經網路搭建方式類似,也是通過s和

h的概念進行類推。

本文參考英文原文

,裡面有一些動畫類的演示也很有助於理解,建議穿插著一起閱讀。

簡單的網路層是,更方便我們對普遍性可以模擬任何函式這一論點進行證明,但是實際應用中越深度(隱藏層越多)的網路越有助於解決真正的現實問題。

bp神經網路matlab 神經網路有哪些網路

深度學習,人工智慧,神經網路這些概念往往令初學者頭疼不已,這裡列出其基礎概念的歸納總結,幫助小白入坑,共同學習。人工神經網路 artificial neural network,ann 是一種模擬生物神經網路的結構和功能的數學模型或計算模型。神經網路與小波分析 混沌 粗糙理論 分形理論的融合。194...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...

神經網路 卷積神經網路

1.卷積神經網路概覽 來自吳恩達課上一張,通過對應位置相乘求和,我們從左邊矩陣得到了右邊矩陣,邊緣是白色寬條,當畫素大一些時候,邊緣就會變細。觀察卷積核,左邊一列權重高,右邊一列權重低。輸入,左邊的部分明亮,右邊的部分灰暗。這個學到的邊緣是權重大的寬條 都是30 表示是由亮向暗過渡,下面這個圖左邊暗...