一、所有的代码
这是所有的代码
from collections import defaultdict
import jieba.posseg as jp
with open('keyword.txt','r',encoding='utf-8') as file:
keyword_list = file.read().split('\n')
not_flag = set(['w','x','y','z','un','m'])
not_word = set(['的','是','有','啊','呢','么','好'])
keyword_split = dict()
word_count = defaultdict(int)
for keyword in keyword_list:
word_set = set()
for word,flag in jp.cut(keyword):
if flag in not_flag:
continue
if word in not_word:
continue
if word == 'pdf' or word == 'PDF':
continue
word_count[word] += 1
word_set.add(word)
keyword_split[keyword] = word_set
id_keyword_list = defaultdict(list)
id_count = defaultdict(int)
for keyword,word_set in keyword_split.items():
word_sort = dict()
for word in word_set:
word_sort[word] = word_count[word]
word_sort = sorted(word_sort.items(),key=lambda x:x[1],reverse=True)
word_id = ','.join([word for word,count in word_sort[0:3]])
id_keyword_list[word_id] += [keyword]
id_count[word_id] += 1
result = []
id_count = sorted(id_count.items(),key=lambda x:x[1],reverse=True)
for word_id,count in id_count:
if count < 3:
continue
for keyword in id_keyword_list[word_id]:
result.append('%s\t%s' % (keyword,word_id))
result.append('')
with open('result.txt','wb') as file:
file.write('\n'.join(result).encode('utf-8'))
二、实现的效果
keyword.txt
如下图:
有50万的关于pdf的关键词数据
最后的输出result.txt
就是将里面的含有关键词相同的句子统一输出出来:
这里会将一个句子的3个关键词输出出来 关键词是根据词频排序的。
最后将所有关键词一样的句子组合在一起,就可以知道这些句子表达的意思大致一致
三、代码解读
keyword_list
是从keyword.txt读取到的所有的句子
not_flag
是要排除的标记,不统计这些标记
not_word
是要排除的单词,不统计这些单词
keyword_split
是句子对应到他的所有单词的字典,key是句子,value是他的所有单词的集合
word_count
是所有的拆分后的单词的次数的字典,key是单词,value是单词出现的次数
id_keyword_list
是一个字典,它的key是一个字符串 value是列表
id_count
是一个字典,它的key是一个字符串,value是int
最后对id_count处理 将结果输出出来
id_count = sorted(id_count.items(), key=lambda x: x[1], reverse=True)
for word_id, count in id_count:
if count < 3:
continue
for keyword in id_keyword_list[word_id]:
result.append('%s\t%s' % (keyword, word_id))
result.append('')
到此这篇关于Python基于词频排序实现快速挖掘关键词的文章就介绍到这了,更多相关Python挖掘关键词内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!