生成词云还是有点意思的,这里先看看三种模式。
在读取文件时,应该生成的是str类型,这样才可以正确地使用cut函数。
import jieba
str = "今天研究这个词云研究了好久,中文文档的录入是个问题,要注意格式是不是UTF-8,还有注意cut的方式"
#使用自定义字典
#jieba.load_userdict('dict.txt')
ex_list1 = jieba.cut(str)
ex_list2 = jieba.cut(str , cut_all= True)
ex_list3 = jieba.cut_for_search(str)
print("精准模式:"+'/'.join(ex_list1))
print("全模式:"+'/'.join(ex_list2))
print("搜索引擎模式:"+'/'.join(ex_list3))
type(ex_list1)可知cut生成的是一个generator,python中的generator保存的是算法,真正需要计算出值的时候才会去往下计算出值。有一种方法是:把一个列表生成式的[]改成(),就创建了一个generator。
结果如图:
下面,我们通过TXT文件,生成一个简单的词云图,代码如下:
from wordcloud import WordCloud
import matplotlib.pyplot as plt
import jieba
path_txt='D:/pingfan.txt'
f=open(path_txt,encoding='UTF-8').read()
#f
下面利用join函数,生成字符串。
Join的语法如下:str.join(sequence),sequence要连接的元素序列。下面是小例子:
str = “-”;
seq = (“a”, “b”, “c”); # 字符串序列
print str.join( seq ); #输出结果是:a-b-c
#用结巴进行分词,生成字符串。wordcloud无法直接生成正确的中文词云
cut_txt=" ".join(jieba.cut(f,cut_all=True))
#cut_txt
用join将切开的词用空格连起来。然后将连接起来的字,放进generate的参数里面,
mywordcloud=WordCloud( font_path="C:/Windows/Fonts/simfang.ttf",
background_color="white",width=1000,height=880).generate(cut_txt)
plt.imshow(mywordcloud,interpolation="bilinear")
plt.axis("off") #关掉边框,好看一些。
plt.show()
这样一个简单的词云就生成了。如图:
下面,弄复杂一点,加上背景图之类的。
# - * - coding: utf - 8 -*-
import numpy as np
from os import path
from PIL import Image
import matplotlib.pyplot as plt
import jieba
# jieba.load_userdict("txt\userdict.txt")
# 添加用户词库为主词典,原词典变为非主词典
from wordcloud import WordCloud, ImageColorGenerator
# 获取当前文件路径
# __file__ 为当前文件, 在ide中运行此行会报错,可改为
# d = path.dirname('.')
d = path.dirname('.')
stopwords = {}
isCN = 1 #默认启用中文分词
back_coloring_path = "D:/animal.png" # 设置背景图片路径
text_path = 'D:/santi.txt' #设置要分析的文本路径
font_path = 'D:\Fonts\simkai.ttf' # 为matplotlib设置中文字体路径没
stopwords_path = 'D:/stopwords1893.txt' # 停用词词表
imgname1 = "WordCloudDefautColors.png" # 保存的图片名字1(只按照背景图片形状)
my_words_list = ['汪淼'] # 在结巴的词库中添加新词
#back_coloring =np.array(Image.open(path.join(d, back_coloring_path)))# 设置背景图片,也可以用以下方式打开
back_coloring = np.array(Image.open(back_coloring_path))
# 设置词云属性
wc = WordCloud(font_path=font_path, # 设置字体
background_color="white", # 背景颜色
max_words=2000, # 词云显示的最大词数
mask=back_coloring, # 设置背景图片
max_font_size=100, # 字体最大值
random_state=42,
width=1000, height=860, margin=2,# 设置图片默认的大小,但是如果使用背景图片的话,那么保存的图片大小将会按照其大小保存,margin为词语边缘距离
)
# 添加自己的词库分词
def add_word(list):
for items in list:
jieba.add_word(items)
add_word(my_words_list)
#text = open(path.join(d, text_path),encoding='UTF-8').read()
text=open(text_path,encoding='UTF-8').read()
def jiebaclearText(text):
mywordlist = []
seg_list = jieba.cut(text, cut_all=False)
liststr="/ ".join(seg_list)
f_stop = open(stopwords_path,encoding='UTF-8')
try:
f_stop_text = f_stop.read( )
f_stop_text=str(f_stop_text)
finally:
f_stop.close( )
f_stop_seg_list=f_stop_text.split('\n')
for myword in liststr.split('/'):
if not(myword.strip() in f_stop_seg_list) and len(myword.strip())>1:
mywordlist.append(myword)
return ''.join(mywordlist)
if isCN:
text = jiebaclearText(text)
# 生成词云, 可以用generate输入全部文本(wordcloud对中文分词支持不好,建议启用中文分词),也可以我们计算好词频后使用generate_from_frequencies函数
wc.generate(text)
# wc.generate_from_frequencies(txt_freq)
# txt_freq例子为[('词a', 100),('词b', 90),('词c', 80)]
# 从背景图片生成颜色值
image_colors = ImageColorGenerator(back_coloring)
plt.figure()
# 以下代码显示图片
plt.imshow(wc)
plt.axis("off")
plt.show()
# 绘制词云