NLP從Seq2Seq到ALBERT模型理解與實踐

2021-10-05 05:23:46 字數 586 閱讀 1672

今天來推薦一下自己開源的乙個小專案,主要包括nlp中一些經典模型的理解與相關實踐,從最初的seq2seq到目前比較流行的bert模型,以及bert模型改進——albert模型等。

下面是模型實踐的基本學習路線:

內年分為對應模型的**發表年份。

1、seq2seq模型

2、attention機制

3、transformer模型

4、bert模型

5、albert模型

6、多模型的融合(ensemble)

如上圖中,每個模型下面包含模型理解的readme.md檔案,還包括1個或多個的實踐專案(如transformer.ipynb等);對於比較重要的概念還會使用notebook配合**進行實踐和深入理解(如attention_understanding.ipynb)。

最後如果有相關模型學習和實踐的朋友去star和fork~

系統學習NLP(十五) seq2seq

什麼是 seq2seq?seq2seq 是乙個encoder decoder 結構的網路,它的輸入是乙個序列,輸出也是乙個序列,encoder 中將乙個可變長度的訊號序列變為固定長度的向量表達,decoder 將這個固定長度的向量變成可變長度的目標的訊號序列。這個結構最重要的地方在於輸入序列和輸出序...

從rnn到lstm,再到seq2seq(二)

從圖上可以看出來,decode的過程其實都是從encode的最後乙個隱層開始的,如果encode輸入過長的話,會丟失很多資訊,所以設計了attation機制。attation機制的decode的過程和原來的最大的區別就是,它輸出的不只是基於本時刻的h,而是基於本時刻的h和c的concat矩陣。那麼c...

seq2seq模型詳解

在李紀為博士的畢業 中提到,基於生成的閒聊機械人中,seq2seq是一種很常見的技術。例如,在法語 英語翻譯中,的當前英語單詞不僅取決於所有前面的已翻譯的英語單詞,還取決於原始的法語輸入 另乙個例子,對話中當前的response不僅取決於以往的response,還取決於訊息的輸入。其實,seq2se...