深度學習 神經網路前向傳播簡單實現

2022-09-21 12:33:15 字數 1629 閱讀 8001

輸入層的每個節點與隱藏層的每個節點做點對點計算,加權求和 + 啟用函式

利用同樣的方法,計算隱藏層到輸出層

隱藏層對加權結合後的結果使用啟用函式,本例使用sigmoid

最終的輸出值與樣本值進行比較,計算出誤差

# 輸入層到隱藏層的權重矩陣和bias

network['w1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])

network['b1'] = np.array([0.1, 0.2, 0.3])

# 第乙個隱藏層到第二個隱藏層的權重矩陣和bias

network['w2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])

network['b2'] = np.array([0.1, 0.2])

# 第二個隱藏層到輸出層的權重矩陣和bias

network['w3'] = np.array([[0.1, 0.3], [0.2, 0.4]])

network['b3'] = np.array([0.1, 0.2])

return network

def forward(network, x):

# x是輸入

# network是初始化後的模型,已定義好權重矩陣和bias

# 提取模型初始化的權重、bias物件

w1, w2, w3 = network['w1'], network['w2'], network['w3']

b1, b2, b3 = network['b1'], network['b2'], network['b3']

# 前向傳播

# 輸入層到第乙個隱藏層

# 輸入:x,輸出:z1

a1 = x.dot(w1) + b1 # 加權求和

z1 = _sigmoid(a1) # 啟用,得到輸出z1,作為進入下一層的輸入

# 第乙個隱藏層到第二個隱藏層

# 輸入:z1,輸出z2

a2 = z1.dot(w2) + b2 # 加權求和

z2 = _sigmoid(a2) # 啟用,得到輸出z2,作為進入下一層的輸入

# 第二個隱藏層到輸出層

a3 = z2.dot(w3) + b3 # 加權求和,得到輸出a3

y = a3

return y

if __name__ == '__main__':

# 初始化網路

network = init_network()

# 輸入

x = np.array([1.0, 0.5])

# 前向傳播

y = forward(network, x)

# 列印輸出

print(y)

神經網路前向傳播與反向傳播

神經網路 神經網路可以理解為乙個輸入x到輸出y的對映函式,即f x y,其中這個對映f就是我們所要訓練的網路引數w,我們只要訓練出來了引數w,那麼對於任何輸入x,我們就能得到乙個與之對應的輸出y。只要f不同,那麼同乙個x就會產生不同的y,我們當然是想要獲得最符合真實資料的y,那麼我們就要訓練出乙個最...

神經網路 前向,反向傳播過程

x,資料集矩陣。每一行的元素代表了乙個樣例的特徵值x1,x2,x3.共有n行,說明資料集一共n個樣例 theta,引數矩陣 行數 要生成的神經元個數 列數 上一層的輸入個數 每一行的元素代表了對樣例各個特徵值的權重 以資料集為x 5 3 使用上圖的網路結構為例 輸入層 x 5 3 說明資料集有5個樣...

深度神經網路(DNN)模型與前向傳播演算法

深度神經網路 deep neural networks,以下簡稱dnn 是深度學習的基礎,而要理解dnn,首先我們要理解dnn模型,下面我們就對dnn的模型與前向傳播演算法做乙個總結。在感知機原理小結中,我們介紹過感知機的模型,它是乙個有若干輸入和乙個輸出的模型,如下圖 輸出和輸入之間學習到乙個線性...