Python中文分词工具之结巴分词用法实例总结【经典案例】

时间:2021-05-22

本文实例讲述了Python中文分词工具之结巴分词用法。分享给大家供大家参考,具体如下:

结巴分词工具的安装及基本用法,前面的文章《Python结巴中文分词工具使用过程中遇到的问题及解决方法》中已经有所描述。这里要说的内容与实际应用更贴近——从文本中读取中文信息,利用结巴分词工具进行分词及词性标注。

示例代码如下:

#coding=utf-8import jiebaimport jieba.posseg as psegimport timet1=time.time()f=open("t_with_splitter.txt","r") #读取文本string=f.read().decode("utf-8")words = pseg.cut(string) #进行分词result="" #记录最终结果的变量for w in words: result+= str(w.word)+"/"+str(w.flag) #加词性标注f=open("t_with_POS_tag.txt","w") #将结果保存到另一个文档中f.write(result)f.close()t2=time.time()print("分词及词性标注完成,耗时:"+str(t2-t1)+"秒。") #反馈结果

其中t_with_splitter.txt文件内容如下:

是国内专业的网站建设资源、脚本编程学习类网站,提供asp、php、asp.net、javascript、jquery、vbscript、dos批处理、网页制作、网络编程、网站建设等编程资料。

Python2.7.9平台运行后出现如下图所示的错误提示

查阅相关资料后发现,需要在开头加上:

import sysreload(sys)sys.setdefaultencoding( "utf-8" )

最终代码应为:

#coding=utf-8import jiebaimport jieba.posseg as psegimport timeimport sysreload(sys)sys.setdefaultencoding( "utf-8" )t1=time.time()f=open("t_with_splitter.txt","r") #读取文本string=f.read().decode("utf-8")words = pseg.cut(string) #进行分词result="" #记录最终结果的变量for w in words: result+= str(w.word)+"/"+str(w.flag) #加词性标注f=open("t_with_POS_tag.txt","w") #将结果保存到另一个文档中f.write(result)f.close()t2=time.time()print("分词及词性标注完成,耗时:"+str(t2-t1)+"秒。") #反馈结果

运行成功:

Editplus打开t_with_POS_tag.txt文件如下图所示:

更多关于Python相关内容可查看本站专题:《Python字典操作技巧汇总》、《Python字符串操作技巧汇总》、《Python常用遍历技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》及《Python入门与进阶经典教程》

希望本文所述对大家Python程序设计有所帮助。

声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。

相关文章