《機器學習》筆記 神經網路

2021-08-09 13:21:44 字數 660 閱讀 6318

輸入:乙個實數值向量 (x1, … ,xn)

輸出:o(x) = sgn(w·x),

- 其中 向量w = (w0,w1, … ,wn)是要求的引數,向量x = (x0,x1, … ,xn) (x0=1)是輸入

- 函式o(x1, … ,xn)實際上是求(x1, … ,xn)的線性組合是否大於閾值-w0,從幾何上看即是在決策面的哪一側

假設空間:h =

- 學習乙個感知器意味著從空間r^(n+1)中,搜尋乙個向量w,使o(x)趨近訓練集中x對應的輸出

訓練方法:w <- w+δw

表示高度非線性的決策面

反向傳播演算法(對於有一層隱藏單元、一層輸出單元的網路)

把反向傳播演算法推廣到 任意深度的前饋網路 和 任意的無環網路

增加衝量項的反向傳播演算法變體:δwji(n) = η δj xji + α δwji (n-1)

delta法則用的感知器的輸出

o(x)=(w0,w1,…,wn)·(x0,x1,…,xn) or o(x)=(w1,…,wn)·(x1,…,xn) ?

o(x)=sgn(w·x)

是否可以說,這樣的感知器是給輸入做分類?

梯度下降的隨機近似 的偽碼

每個單獨樣例的順序似乎對w有影響?或者重複操作很多次過後順序帶來的影響可以忽略?

機器學習筆記22 神經網路 卷積神經網路

參考資料 面向機器智慧型的tensorflow實踐 keras example mnist cnn.py keras中文文件 常用層卷積層 卷積理解就是之前影象處理裡用作檢測邊緣 檢測角點的運算元,例如 輸入 12 34 begin 1 2 3 4 end 13 24 核 2 begin 2 end...

機器學習筆記(二) 神經網路

神將網路在解決多分類問題時效果比logistics回歸的效果要好,作為現在最流行的機器學習演算法,我們首先來簡單了解一下 和我們人的神經組成一樣,神將網路也是由神經元組成,先來介紹最普遍的mp神經元。在生物的神經網路中,假設一些神經元處於興奮狀態,那麼這些神經元就會向與之相連線的神經元傳送化學物質,...

機器學習筆記 5 神經網路

本章節闡述了神經網路的基本概念 5.1 神經元模型 mp神經元模型,啟用函式 5.2 感知機與多層網路 單層網路,多層網路 包含隱層 5.3 誤差逆傳播演算法 bp 這一部分講的是如何使用bp演算法來調整引數 閾值,權值 5.4 全域性最小與區域性最小 當可能面對多個區域性最小時,使用模擬退火,多初...