關於pytorch的lstm輸出的理解

2021-10-02 16:07:20 字數 585 閱讀 1652

之前陷入了對pytorch的lstm輸出的誤區,後來畫圖終於明白了

上圖為lstm的乙個簡易模型,中間可能有很多層,而lstm的輸出,以batch_first=true為例:(padding了)

output的形狀為【batch_num,max_sequence_len,hidden_size*num_of_direction】,顯示【最後一層】的【雙向】的lstm輸出

其中乙個樣本為例:【t0前向結果+t0反向結果,t1前+t1反,……,tn前+tn反】

對於前向lstm,輸出是tn前;對於反向lstm,輸出是t0反。要注意輸出的位置。

如果只使用最終結果,要將需要的資料按位置抽出來,如果要使用每一層的資料,需要使用(h_n,c_n)那一組資料

對於h_n,只顯示最後乙個時刻的結果,

其輸出的結構是【第一層lstm前向,第一層的反向,第二層的前向,第二層的反向,……】

注意:t0反向結果=最後一層反向,tn前向結果=最後一層前向,一定要注意對應的位置。

DeepLearning之LSTM模型輸入引數

lstm模型 輸入引數理解 long short term memory lstm是rnn模型的一種變種模式,增加了輸入門,遺忘門,輸出門。lstm也是在時間序列 中的常用模型。小白我也是從這個模型入門來開始機器學習的坑。lstm的基本概念與各個門的解釋已經有博文寫的非常詳細 推薦博文 譯 理解ls...

乾貨 LSTM詳解,關於LSTM的前生今世

最近在做lip reading領域的研究,設計到c3d和rnn的結合,於是仔細觀摩了下lstm的系列 總結如下 ppt總長98頁,內容包括 1.conventional lstm 含bptt演算法的詳細講解 2.forget gate的提出 3.peephole mechanism 4.encode...

關於LSTM的units引數

lstm units,input shape 3,1 這裡的units指的是cell的個數麼?如果是,按照lstm原理這些cell之間應該是無連線的,那units的多少其意義是什麼呢,是不是相當於mlp裡面對應隱層的神經元個數,只是為了擴充套件系統的輸出能力 這個問題也困擾了我很久,後來終於明白了,...