时间:2021-05-22
代码如下
import wordcloudimport jiebafont = r'C:\Windows\Fonts\simfang.ttf'w = wordcloud.WordCloud(height = 700, width = 1000, font_path=font, \ stopwords=['et','al', 'Crampin', 'and','the', 'Liu'], max_words=30) with open('NSFC.txt', 'r') as f: txt = f.read()txt = ' '.join(jieba.lcut(txt))print(txt)w.generate(txt)w.to_file('world.png')准备文件:需要在当前程序运行目录准备一个中文文本文件NSFC.txt。
程序运行后,完成对NSFC.txt文件中的中文统计,并输出图形文件展示词云。
图片效果如下:
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持。
声明:本页内容来源网络,仅供用户参考;我单位不保证亦不表示资料全面及准确无误,也不保证亦不表示这些资料为最新信息,如因任何原因,本网内容或者用户因倚赖本网内容造成任何损失或损害,我单位将不会负任何法律责任。如涉及版权问题,请提交至online#300.cn邮箱联系删除。
环境及模块:Win764位Python3.6.4WordCloud1.5.0Pillow5.0.0Jieba0.39目标:绘制安徽省2018年某些科技项目的词云
本文实例讲述了Python基于jieba库进行简单分词及词云功能实现方法。分享给大家供大家参考,具体如下:目标:1.导入一个文本文件2.使用jieba对文本进行
1概述利用Python生成简单的词云,需要的工具是cython,wordcloud与anaconda.2准备工作包括安装cython,wordcloud与ana
1、jieba库基本介绍(1)、jieba库概述jieba是优秀的中文分词第三方库-中文文本需要通过分词获得单个的词语-jieba是优秀的中文分词第三方库,需要
1,使用到的第三方库requestsBeautifulSoup美味汤worldcloud词云jieba中文分词matplotlib绘图2,代码实现部分impor