自然語言處理NLP發展歷史

2021-10-10 00:22:52 字數 633 閱讀 6443

2023年 - 神經語言模型

2023年 - 多工學習

2023年 - word嵌入

2023年 - nlp的神經網路:迴圈神經網路(recurrent neural networks)、卷積神經網路(convolutionalneural networks)和結構遞迴神經網路(recursive neural networks)

2023年 - 序列到序列模型:seq2seq屬於encoder-decoder結構的一種,這裡看看常見的encoder-decoder結構,基本思想就是利用兩個rnn,乙個rnn作為encoder,另乙個rnn作為decoder

2023年 - 注意力機制:google又提出了解決seq2seq問題的transformer模型,用全attention的結構代替了lstm,在翻譯任務上取得了更好的成績。

2023年 - 基於記憶的神經網路

2023年 - 預訓練語言模型:

bert:bert的網路架構使用的是《attention is all you need》中提出的多層transformer結構。

xlnet(2019-2020):結合ar語言模型和ae語言模型(bert)。

NLP自然語言處理

第1部分自然語言處理入門 1.1自然語言處理入門.mp4 第2部分hmm和crf 1.1crf模型簡介.mp4 1.1hmm模型介紹.mp4 1.2文字處理的基本方法 part1.mp4 2.1新聞主題分類任務 第4步 part2.mp4 第43部分rnn 1.1rnn模型小結.mp4 1.1rnn...

NLP自然語言處理

老實來講這課我一頭霧水滿腦袋問號 import numpy as np from collections import counter counttime 0 def seperate filename totalnum 0 郵件的總數 global counttime i 0 file open ...

NLP自然語言處理相關

近期需要學習一些命名實體識別的知識,記錄一下,以便以後複習 個人理解 目前的理解是,命名實體識別 ner 是自然語言處理 nlp 的乙個階段,可應用於機器翻譯 摘要形成 資訊檢索等等,個人認為,自然語言處理是一門很複雜的跨學科技術,其難點在於人類是富有思維的,人的語言寄託人的思想,因此很難準確處理。...