python結巴分詞

2021-06-28 16:29:57 字數 1113 閱讀 5371

中文分詞是中文文字處理的乙個基礎性工作,結巴分詞利用進行中文分詞。其基本實現原理有三點:

基於trie樹結構實現高效的詞圖掃瞄,生成句子中漢字所有可能成詞情況所構成的有向無環圖(dag)

採用了動態規劃查詢最大概率路徑, 找出基於詞頻的最大切分組合

對於未登入詞,採用了基於漢字成詞能力的hmm模型,使用了viterbi演算法

安裝(linux環境)

模式

預設模式,試圖將句子最精確地切開,適合文字分析

全模式,把句子中所有的可以成詞的詞語都掃瞄出來,適合搜尋引擎

介面

待分詞的字串可以是gbk字串、utf-8字串或者unicode

jieba.cut返回的結構是乙個可迭代的generator,可以使用for迴圈來獲得分詞後得到的每乙個詞語(unicode),也可以用list(jieba.cut(...))轉化為list  

例項

#

! -*- coding:utf-8 -*-

import

jieba

seg_list = jieba.cut("

我來到北京清華大學

", cut_all =true)

print

"full mode:

", '

'.join(seg_list)

seg_list = jieba.cut("

我來到北京清華大學")

print

"default mode:

", '

'.join(seg_list)

結果

實現原理

python中文分詞 結巴分詞

中文分詞是中文文字處理的乙個基礎性工作,結巴分詞利用進行中文分詞。其基本實現原理有三點 基於trie樹結構實現高效的詞圖掃瞄,生成句子中漢字所有可能成詞情況所構成的有向無環圖 dag 採用了動態規劃查詢最大概率路徑,找出基於詞頻的最大切分組合 對於未登入詞,採用了基於漢字成詞能力的hmm模型,使用了...

Python 結巴分詞(1)分詞

利用結巴分詞來進行詞頻的統計,並輸出到檔案中。結巴分詞的特點 支援繁體分詞 支援自定義詞典 mit 授權協議 演算法 分詞引數 使用者詞典 載入詞典 使用者詞典 userdict.dict 雲計算 5 李小福 2 nr 創新辦 3 i easy install 3 eng 好用 300 韓玉賞鑑 3...

結巴分詞jieba

全模式text 我來到北京清華大學 seg list jieba.cut text,cut all true print u 全模式 join seg list 精確模式 seg list jieba.cut text,cut all false print u 精確模式 join seg list...