时间:2021-05-22
在中文分词中,jiebe库是最为常见的,主要的原因还是它独特的支持分词模式如:精确模式、全模式、搜索引擎模式。也对应着三种方式,包括jieba.cut()方法、jieba.lcut()方法、jieba.cut_for_search()方法。下面就为大家实例操作这些分词模式,以及方法的使用,一起来了解下吧。
输出结果:
全模式:南京/ 南京市/ 京市/ 市长/ 长江/ 长江大桥/ 大桥/ 欢迎/ 你/ 。
精确模式:南京市/ 长江大桥/ 欢迎/ 你/ 。
搜索引擎模式:南京/ 京市/ 南京市/ 长江/ 大桥/ 长江大桥/ 欢迎/ 你/ 。
内容扩展:
获取词性
我们还可以通过jiaba这个库把词性进行区分,比如动词,名词等
import jieba.posseg as psgseg_list = psg.cut("我要进行关键词提取")print([(s.word, s.flag) for s in seg_list])# [('我', 'r'), ('要', 'v'), ('进行', 'v'), ('关键词', 'n'), ('提取', 'v')]我们还可以提取动词或者名词,我们来提取下里面的动词
import jieba.posseg as psgseg_list = psg.cut("我要进行关键词提取")print([(s.word, s.flag) for s in seg_list if s.flag.startswith('v')])到此这篇关于Python jieba库分词模式实例用法的文章就介绍到这了,更多相关Python jieba库分词模式怎么用内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
1、jieba库基本介绍(1)、jieba库概述jieba是优秀的中文分词第三方库-中文文本需要通过分词获得单个的词语-jieba是优秀的中文分词第三方库,需要
本文实例讲述了Python基于jieba库进行简单分词及词云功能实现方法。分享给大家供大家参考,具体如下:目标:1.导入一个文本文件2.使用jieba对文本进行
本文实例讲述了python实现的读取网页并分词功能。分享给大家供大家参考,具体如下:这里使用分词使用最流行的分词包jieba,参考:https://github
本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下:结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用
1,使用到的第三方库requestsBeautifulSoup美味汤worldcloud词云jieba中文分词matplotlib绘图2,代码实现部分impor