神經網路 表示

2021-07-15 10:54:12 字數 1003 閱讀 1218

神經網路為什麼會誕生。先看邏輯回歸。如果有100個特徵x1~x100,那麼如果想表示x1x2,。。,x1x100.這就要算100*100(o(n^2))個的項了,更何況有的時候不僅僅是二次項。

比如我要求的就是乙個50×50畫素的小,總共有2500個畫素特徵。如果是rgb的那麼就7500個特徵。如果要用邏輯回歸算二次就是7500×7500將近3萬的特徵,這是非常多的。因此,神經網路也呼之欲出了。

以上就是一層當中,對於它一些元素的定義。就是這麼定義的,只能記憶。a是隱層,還有中間的函式就是sigmoid函式。

諾,這個就是前向傳播。怎麼說呢,表示方式要熟悉。

如果把神經網路的前面給檔了,後面就是乙個邏輯回歸。一模一樣。

只不過神經網路的輸入是有選擇的,是通過第一層訓練獲得的。這也就沒有必要去計算所有的引數,而是通過第一層有選擇的選出特徵。

神經網路可以由幾層簡單的函式疊加起來完成乙個複雜的過程。比如上文這個例子就是生成異或這個功能。所以,神經網路是非線性的。

ok。先這樣吧

神經網路與深度學習筆記 3 2神經網路表示

隱藏層 訓練集中可以看到輸入輸出值,但看不到隱藏層值。將輸入輸出用a表示也可以,a表示啟用的意思,意味著網路不同層的值會傳遞給後一層。上述神經網路雖然包含輸入層 隱藏層 輸出層三層,但在文獻中我們稱之為雙層神經網路,其中隱藏層是第一層,輸出層是第二層。隱藏層 輸出層是有引數的,隱藏層有兩個引數w 1...

神經網路的資料表示

深度學習中的資料儲存在多維numpy陣列中,也叫張量 tensor 一般來說,當前所有機器學習系統都使用張量作為基本的資料結構。張量對這個領域非常重要,重要到google 的tensorflow 都以它來命名。那麼什麼是張量?張量這一概念的核心在於,它是乙個資料容器。它包含的資料幾乎總是數值資料,因...

神經網路 卷積神經網路

這篇卷積神經網路是前面介紹的多層神經網路的進一步深入,它將深度學習的思想引入到了神經網路當中,通過卷積運算來由淺入深的提取影象的不同層次的特徵,而利用神經網路的訓練過程讓整個網路自動調節卷積核的引數,從而無監督的產生了最適合的分類特徵。這個概括可能有點抽象,我盡量在下面描述細緻一些,但如果要更深入了...