RNN 《動手學深度學習pytorch》

2021-10-03 05:37:32 字數 2975 閱讀 7563

rnn存在的問題:梯度較容易出現衰減或**(bptt),改進:gru

⻔控迴圈神經⽹絡:捕捉時間序列中時間步距離較⼤的依賴關係 

長短期記憶long short-term memory:

遺忘門:控制上一時間步的記憶細胞 輸入門:控制當前時間步的輸入

輸出門:控制從記憶細胞到隱藏狀態

記憶細胞:⼀種特殊的隱藏狀態的資訊的流動

w_xi, w_hi, b_i = _three() # 輸入門引數

w_xf, w_hf, b_f = _three() # 遺忘門引數

w_xo, w_ho, b_o = _three() # 輸出門引數

w_xc, w_hc, b_c = _three() # 候選記憶細胞引數

# 輸出層引數

動手學深度學習

線性回歸的基本要素 模型 為了簡單起見,這裡我們假設 只取決於房屋狀況的兩個因素,即面積 平方公尺 和房齡 年 接下來我們希望探索 與這兩個因素的具體關係。線性回歸假設輸出與各個輸入之間是線性關係 price warea area wage age b price warea area wage a...

動手學深度學習(一)

其中 w1 和 w2 是權重 weight b 是偏差 bias 且均為標量。訓練資料 損失函式 通常,我們用訓練資料集中所有樣本誤差的平均來衡量模型 的質量 w 1,w 2,b 為使訓練樣本平均損失最小的解 優化演算法 b 代表每個小批量中的樣本個數 批量大小,batch size 稱作學習率 l...

筆記 動手學深度學習

在求數值解的優化演算法中,小批量隨機梯度下降 mini batch stochastic gradient descent 在深度學習中被廣泛使用。它的演算法很簡單 先選取一組模型引數的初始值,如隨機選取 接下來對引數進行多次迭代,使每次迭代都可能降低損失函式的值。在每次迭代中,先隨機均勻取樣乙個由...