第五周 迴圈神經網路

2022-05-06 05:12:08 字數 962 閱讀 3532

1. 迴圈神經網路的應用

語音問答、視覺問答、機器翻譯、****、作詞機、作詩、仿寫**及**、影象理解

2. 迴圈神經網路 vs 卷積神經網路

1. 基本結構

2. 深度rnn

深度較深,特徵表示能力較強。

3. 雙向rnn

同時聯絡上、下文資訊。

4. bptt演算法

與bp演算法相似,復合函式鏈式求導需要考慮所有與w相關的h。

1. 傳統rnn的問題

梯度消失導致的問題:長時依賴問題

梯度消失問題的改進:

lstm中「記憶」不會被新的輸入覆蓋(相加)。

如果前面的輸入對 ct 產生了影響,那這個影響會一直存在,除非遺忘門的權重為0。

解決lstm運算複雜的問題。

相似:1. 解決rnn梯度消失的其他方法

2. 基於attention的rnn

第五章 神經網路

單層感知器和啟用函式 亦或問題 與非概念 bp演算法 神經網路中誤差反向傳播 back propagation 演算法的工作原理 標準bp演算法與累積bp演算法 用到隨機梯度下降 競爭型學習som網路自組織對映 競爭學習演算法 競爭輸出乙個獲勝的 最優的 向量歸一化 競爭層 輸入層 k means的...

迴圈神經網路

原文 迴圈神經網路也可以畫成下面這個樣子 對於語言模型來說,很多時候光看前面的詞是不夠的,比如下面這句話 我的手機壞了,我打算 一部新手機。可以想象,如果我們只看橫線前面的詞,手機壞了,那麼我是打算修一修?換一部新的?還是大哭一場?這些都是無法確定的。但如果我們也看到了橫線後面的詞是 一部新手機 那...

迴圈神經網路

原文 迴圈神經網路也可以畫成下面這個樣子 對於語言模型來說,很多時候光看前面的詞是不夠的,比如下面這句話 我的手機壞了,我打算 一部新手機。可以想象,如果我們只看橫線前面的詞,手機壞了,那麼我是打算修一修?換一部新的?還是大哭一場?這些都是無法確定的。但如果我們也看到了橫線後面的詞是 一部新手機 那...