# 導入擴展庫
import re # 正則表達式庫
import collections # 詞頻統計庫
import numpy as np # numpy數據處理庫
import jieba # 結巴分詞
import wordcloud # 詞云展示庫
from PIL import Image # 圖像處理庫
import matplotlib.pyplot as plt # 圖像展示庫
# 讀取文件
fn = open('c.csv') # 打開文件
string_data = fn.read() # 讀出整個文件
fn.close() # 關閉文件
# 文本預處理
pattern = re.compile(u'\t|\n|\.|-|:|;|\)|\(|\?|"') # 定義正則表達式匹配模式
string_data = re.sub(pattern, '', string_data) # 將符合模式的字符去除
# 文本分詞
seg_list_exact = jieba.cut(string_data, cut_all = False) # 精確模式分詞
object_list = []
remove_words = [u'的', u',',u'和', u'是', u'隨著', u'對于', u'對',u'等',u'能',u'都',u'。',u' ',u'、',u'中',u'在',u'了',
u'通常',u'如果',u'我們',u'需要'] # 自定義去除詞庫
for word in seg_list_exact: # 循環讀出每個分詞
if word not in remove_words: # 如果不在去除詞庫中
object_list.append(word) # 分詞追加到列表
# 詞頻統計
word_counts = collections.Counter(object_list) # 對分詞做詞頻統計
word_counts_top10 = word_counts.most_common(200) # 獲取前10最高頻的詞
print (word_counts_top10) # 輸出檢查
# 詞頻展示
mask = np.array(Image.open('bg.jpg')) # 定義詞頻背景
wc = wordcloud.WordCloud(
font_path='C:/Windows/Fonts/simhei.ttf', # 設置字體格式
mask=mask, # 設置背景圖
max_words=200, # 最多顯示詞數
max_font_size=100 # 字體最大值
)
wc.generate_from_frequencies(word_counts) # 從字典生成詞云
image_colors = wordcloud.ImageColorGenerator(mask) # 從背景圖建立顏色方案
wc.recolor(color_func=image_colors) # 將詞云顏色設置為背景圖方案
plt.imshow(wc) # 顯示詞云
plt.axis('off') # 關閉坐標軸
plt.show() # 顯示圖像
# fp = open('c.csv','rb')
# content = fp.read().decode('gbk')
# print(content)
# showplt(content,'SKU')
# show_wordcloud(content,'bg.jpg')
?
更多文章、技術交流、商務合作、聯系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯系: 360901061
您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
