除了我们本身拥有的自带内置库,想要找可以服务需求的库,如果软件里没有,那么基本上都是第三方库了,小编这就遇到了需要安装第三库的情况,主要还是有个需求,需要去分析文本内容,还要是能在搜索完成后,进行搜索结果的检索,然后在精确的提出我的需求,像这样的库,就是今天我们要说的jieba库。
jieba库的作用:
检索文本文档,并精准的做中文分词
安装方法:
pipinstalljieba#或者pip3installjieba
测试安装是否成功:
jieba库实例使用:
seg_list=jieba.cut("中国上海是一座美丽的国际性大都市",cut_all=False) print("FullMode:"+"/".join(seg_list))
返回结果:
DefaultMode:中国/上海/是/一座/美丽/的/国际性/大都市
仔细看下,不难发现jieba库搭配cut方法,可以做精确的分析,看到这里,想必都已经掌握了解了,赶紧带入实例项目里试试吧。