`jieba` 是一个 Python 的中文分词库,用于将中文文本切分成单个词语。它支持三种分词模式:
精确模式:
尽可能精确地切分文本,没有冗余数据,适合文本分析。
全模式:
扫描出句子中所有可能的词语,速度快,但可能存在冗余。
搜索引擎模式:
在精确模式的基础上,对长词再次切分,提高召回率,适合搜索引擎分词。
要使用 `jieba`,你需要先安装库,可以通过 `pip` 命令进行安装:
pip install jieba
安装后,你可以使用 `jieba.cut` 或 `jieba.cut_for_search` 方法进行分词。这两个方法都返回一个可迭代的 generator,你可以用 for 循环来遍历分词结果。
`jieba` 除了分词,还支持词性标注和关键词提取等功能,是中文文本处理中非常有用的工具之一