刚刚在看Python的词云图,想要显示中文的时候,需要做一个分词,这里我们学习下jieba分词。
1. jieba中文分词
jieba是Python中文分词的一个组件
github地址:[https://github.com/fxsjy/jieba](https://github.com/fxsjy/jieba)
支持三种分词模式:精确模式,试图将句子最精确地切开,适合文本分析;全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。支持繁体分词支持自定义词典MIT 授权协议
安装:
官网上的小实例
|
|
到这里,想要的功能其实已经足够了,官网还有很多其他的介绍内容,很强大,后面需要的时候,再来补充,接着回去改那个词云的了先。