jieba庫的使用

2022-09-04 07:30:09 字數 2212 閱讀 7458

jieba庫的使用:

jieba庫是一款優秀的 python 第三方中文分詞庫,jieba支援三種分詞模式:精確模式、全模式和搜尋引擎模式,下面是三種模式的特點。

精確模式:試圖將語句最精確的切分,不存在冗餘資料,適合做文字分析

全模式:將語句中所有可能是詞的詞語都切分出來,速度很快,但是存在冗餘資料

搜尋引擎模式:在精確模式的基礎上,對長詞再次進行切分.

jieba的使用

# -*- coding: utf-8 -*-

import jieba

seg_str = "好好學習,天天向上。"

print("/".join(jieba.lcut(seg_str))) # 精簡模式,返回乙個列表型別的結果

print("/".join(jieba.lcut(seg_str, cut_all=true))) # 全模式,使用 'cut_all=true' 指定 

print("/".join(jieba.lcut_for_search(seg_str))) # 搜尋引擎模式

jieba庫對英文單詞的統計

# -*- coding: utf-8 -*-

def get_text():

txt = open("1.txt", "r", encoding='utf-8').read()

txt = txt.lower()

for ch in '!"#$%&()*+,-./:;<=>?@[\\]^_『~':

txt = txt.replace(ch, " ") # 將文字中特殊字元替換為空格

return txt

file_txt = get_text()

words = file_txt.split() # 對字串進行分割,獲得單詞列表

詞云的製作

完成安裝jieba , wordcloud ,matplotlib

from wordcloud import wordcloud

import matplotlib.pyplot as plt

import jieba

def create_word_cloud(filename):

text = open("哈姆雷特.txt".format(filename)).read()

jieba庫的使用

jieba是優秀的中文分詞第三方庫 中文文字需要通過分詞獲得單個的詞語 jieba是優秀的中文分詞第三方庫,需要額外安裝 jieba庫提供三種分詞模式,最簡單只需掌握乙個函式 cmd命令列 pip install jieba jieba分詞依靠中文詞庫 利用乙個中文詞庫,確定漢字之間的關聯概率 漢字...

jieba庫的使用

1.jieba庫概述 jieba是優秀的中文分詞第三方庫 2.jieba庫的安裝 cmd命令列 pip install jieba 3.jieba的分詞原理 4.jieba庫的使用 4.1 jieba分詞的的三種模式 4.2 jieba庫常用函式 詞頻統計例項 英文文字 哈姆雷特 英文版 要點 文字...

jieba庫的使用

如何安裝jieba?我們使用cmd命令輸入python m pip install jieba 等一段時間就下好了。jieba庫有啥用?就是將中文語句進行分詞 它有幾種模式 精確模式 全模式 搜尋引擎模式 精確模式 把文字精確地切分開,不存在冗餘單詞 全模式 把文字中所有可能的詞語都掃瞄出來,有冗餘...