Word2Vec與LDA的區別和聯絡

2021-10-05 17:07:20 字數 1555 閱讀 6689

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

mask

(word2vec原理可以看這裡)

word2vec主要包含兩個模型,乙個是cbow模型,上下文**中間詞,還有乙個是sg模型,中間詞**上下文,word2vec通過訓練這兩個模型,得到模型訓練的副產物-詞向量。

lda是基於文件中單詞的共現關係來對單詞進行主題聚類,或者說是對「文件-單詞」矩陣進行分解為「文件-主題」和「主題-單詞」。

接下來我們對其區別和聯絡進行具體分析:

word2vec生成的詞向量,由於詞向量資訊的豐富,不同詞向量之間會存在一定的聯絡,那麼其實也可以被理解為一種聚類,那麼這樣就和lda的主題詞聚類對應上了。

以上僅個人理解。

與word2vec 原來word2vec那麼簡單

說到word2vec,它可謂非結構化資料裡面的佼佼者,尤其是在推薦和nlp當中,足以體現它的優勢所在,並且多年一直備受工業界喜愛.那麼word2vec到底是怎麼個原理的,發現身邊總是有很多人問,確不能準確的說出為什麼是兩個矩陣,到底是怎麼自動反向傳播的,以及對於softmax之後那麼大的維度資料,是...

word2vec 和 glove 模型的區別

2019 09 09 15 36 13 問題描述 word2vec 和 glove 這兩個生成 word embedding 的演算法有什麼區別。問題求解 glove global vectors for word representation 與word2vec,兩個模型都可以根據詞彙的 共現 c...

word2vec學習參考

最近看nlp的東西比較多。就拿現在google 基於神經網路做的 word2vec 作為部落格的開始吧,今後會陸陸續續補充內容。基本是分4塊內容 1.神經網路語言模型 2.語言模型分層優化 3.word2vec 原理 4.google word2vec 看一點寫一點,先扔些參考資料鏈接上去。附上在研...