本论文的所有代码均已在Python3.6.3上运行通过
文件名 | 说明 |
---|---|
tm | 在淘宝天猫上获取的全部原始数据 |
jd | 在京东商城上获取的全部原始数据 |
sn | 在苏宁易购上获取的全部原始数据 |
hw | 在华为商城上获取的全部原始数据 |
LDA | 保存的LDA模型、corpus和dictionary |
pictures | 论文当中所有的图片,包括代码生成的图片、自己画的流程图、以及截图 |
sentiment | 情感词典(包括程度副词词典、否定词词典、正负面情感词词典),以及两个生成的snownlp模型 |
big_neg.txt | 将小于-10分的评价数据和snownlp原始的负面评价语料结合后的总的负面评价数据 |
big_pos.txt | 将等于20分的评价数据和snownlp原始的正面评价语料结合后的总的正面评价数据 |
dict.txt | 将新词发现的词语和jieba原始的词典结合后的总的词典 |
neg.txt | snownlp原始的负面评价语料 |
pos.txt | snownlp原始的正面评价语料 |
select_neg.txt | 将人工筛选的100条负面评价和snownlp原始的负面评价语料结合后的总的负面评价数据 |
select_pos.txt | 将人工筛选的100条正面评价和snownlp原始的正面评价语料结合后的总的正面评价数据 |
sentences.txt | 分别将每个人的评论正文和追评正文相加而生成的总的评价数据 |
stoplist.txt | jieba中原始的停用词 |
全部数据.csv | 将淘宝天猫、京东商城、苏宁易购和华为商城的全部数据合并后生成的csv文件 |
清洗后的数据.csv | 将全部数据经过数据预处理后生成的csv文件 |
requirements.txt | 当时所使用的Python第三方库及其对应的版本号 |
若引用本论文或使用本论文相关的数据及代码,请注明论文题目、网址等