文本情感分类(二):深度学习模型
By 苏剑林 | 2015-08-04 | 604394位读者 |在《文本情感分类(一):传统模型》一文中,笔者简单介绍了进行文本情感分类的传统思路。传统的思路简单易懂,而且稳定性也比较强,然而存在着两个难以克服的局限性:一、精度问题,传统思路差强人意,当然一般的应用已经足够了,但是要进一步提高精度,却缺乏比较好的方法;二、背景知识问题,传统思路需要事先提取好情感词典,而这一步骤,往往需要人工操作才能保证准确率,换句话说,做这个事情的人,不仅仅要是数据挖掘专家,还需要语言学家,这个背景知识依赖性问题会阻碍着自然语言处理的进步。
庆幸的是,深度学习解决了这个问题(至少很大程度上解决了),它允许我们在几乎“零背景”的前提下,为某个领域的实际问题建立模型。本文延续上一篇文章所谈及的文本情感分类为例,简单讲解深度学习模型。其中上一篇文章已经详细讨论过的部分,本文不再详细展开。
深度学习与自然语言处理 #
近年来,深度学习算法被应用到了自然语言处理领域,获得了比传统模型更优秀的成果。如Bengio等学者基于深度学习的思想构建了神经概率语言模型,并进一步利用各种深层神经网络在大规模英文语料上进行语言模型的训练,得到了较好的语义表征,完成了句法分析和情感分类等常见的自然语言处理任务,为大数据时代的自然语言处理提供了新的思路。
经过笔者的测试,基于深度神经网络的情感分析模型,其准确率往往有95%以上,深度学习算法的魅力和威力可见一斑!
关于深度学习进一步的资料,请参考以下文献:
[1] Yoshua Bengio, Réjean Ducharme Pascal Vincent, Christian Jauvin. A Neural Probabilistic Language Model, 2003
[2] 一种新的语言模型:http://blog.sciencenet.cn/blog-795431-647334.html[3] Deep Learning(深度学习)学习笔记整理:http://blog.csdn.net/zouxy09/article/details/8775360
[4] Deep Learning:http://deeplearning.net
[5] 漫话中文自动分词和语义识别:http://www.matrix67.com/blog/archives/4212
[6] Deep Learning 在中文分词和词性标注任务中的应用:http://blog.csdn.net/itplus/article/details/13616045
语言的表达 #
在文章《闲聊:神经网络与深度学习》中,笔者已经提到过,建模环节中最重要的一步是特征提取,在自然语言处理中也不例外。在自然语言处理中,最核心的一个问题是,如何把一个句子用数字的形式有效地表达出来?如果能够完成这一步,句子的分类就不成问题了。显然,一个最初等的思路是:给每个词语赋予唯一的编号1,2,3,4...,然后把句子看成是编号的集合,比如假设1,2,3,4分别代表“我”、“你”、“爱”、“恨”,那么“我爱你”就是[1, 3, 2],“我恨你”就是[1, 4, 2]。这种思路看起来有效,实际上非常有问题,比如一个稳定的模型会认为3跟4是很接近的,因此[1, 3, 2]和[1, 4, 2]应当给出接近的分类结果,但是按照我们的编号,3跟4所代表的词语意思完全相反,分类结果不可能相同。因此,这种编码方式不可能给出好的结果。
读者也许会想到,我将意思相近的词语的编号凑在一堆(给予相近的编号)不就行了?嗯,确实如果,如果有办法把相近的词语编号放在一起,那么确实会大大提高模型的准确率。可是问题来了,如果给出每个词语唯一的编号,并且将相近的词语编号设为相近,实际上是假设了语义的单一性,也就是说,语义仅仅是一维的。然而事实并非如此,语义应该是多维的。
比如我们谈到“家园”,有的人会想到近义词“家庭”,从“家庭”又会想到“亲人”,这些都是有相近意思的词语;另外,从“家园”,有的人会想到“地球”,从“地球”又会想到“火星”。换句话说,“亲人”、“火星”都可以看作是“家园”的二级近似,但是“亲人”跟“火星”本身就没有什么明显的联系了。此外,从语义上来讲,“大学”、“舒适”也可以看做是“家园”的二级近似,显然,如果仅通过一个唯一的编号,是很难把这些词语放到适合的位置的。
Word2Vec:高维来了 #
从上面的讨论可以知道,很多词语的意思是各个方向发散开的,而不是单纯的一个方向,因此唯一的编号不是特别理想。那么,多个编号如何?换句话说,将词语对应一个多维向量?不错,这正是非常正确的思路。
为什么多维向量可行?首先,多维向量解决了词语的多方向发散问题,仅仅是二维向量就可以360度全方位旋转了,何况是更高维呢(实际应用中一般是几百维)。其次,还有一个比较实际的问题,就是多维向量允许我们用变化较小的数字来表征词语。怎么说?我们知道,就中文而言,词语的数量就多达数十万,如果给每个词语唯一的编号,那么编号就是从1到几十万变化,变化幅度如此之大,模型的稳定性是很难保证的。如果是高维向量,比如说20维,那么仅需要0和1就可以表达$2^{20} = 1048576$(100万)个词语了。变化较小则能够保证模型的稳定性。
扯了这么多,还没有真正谈到点子上。现在思路是有了,问题是,如何把这些词语放到正确的高维向量中?而且重点是,要在没有语言背景的情况下做到这件事情?(换句话说,如果我想处理英语语言任务,并不需要先学好英语,而是只需要大量收集英语文章,这该多么方便呀!)在这里我们不可能也不必要进行更多的原理上的展开,而是要介绍:而基于这个思路,有一个Google开源的著名的工具——Word2Vec。
简单来说,Word2Vec就是完成了上面所说的我们想要做的事情——用高维向量(词向量,Word Embedding)表示词语,并把相近意思的词语放在相近的位置,而且用的是实数向量(不局限于整数)。我们只需要有大量的某语言的语料,就可以用它来训练模型,获得词向量。词向量好处前面已经提到过一些,或者说,它就是问了解决前面所提到的问题而产生的。另外的一些好处是:词向量可以方便做聚类,用欧氏距离或余弦相似度都可以找出两个具有相近意思的词语。这就相当于解决了“一义多词”的问题(遗憾的是,似乎没什么好思路可以解决一词多义的问题。)
关于Word2Vec的数学原理,读者可以参考这系列文章。而Word2Vec的实现,Google官方提供了C语言的源代码,读者可以自行编译。而Python的Gensim库中也提供现成的Word2Vec作为子库(事实上,这个版本貌似比官方的版本更加强大)。
表达句子:句向量 #
接下来要解决的问题是:我们已经分好词,并且已经将词语转换为高维向量,那么句子就对应着词向量的集合,也就是矩阵,类似于图像处理,图像数字化后也对应一个像素矩阵;可是模型的输入一般只接受一维的特征,那怎么办呢?一个比较简单的想法是将矩阵展平,也就是将词向量一个接一个,组成一个更长的向量。这个思路是可以,但是这样就会使得我们的输入维度高达几千维甚至几万维,事实上是难以实现的。(如果说几万维对于今天的计算机来说不是问题的话,那么对于1000x1000的图像,就是高达100万维了!)
事实上,对于图像处理来说,已经有一套成熟的方法了,叫做卷积神经网络(CNNs),它是神经网络的一种,专门用来处理矩阵输入的任务,能够将矩阵形式的输入编码为较低维度的一维向量,而保留大多数有用信息。卷积神经网络那一套也可以直接搬到自然语言处理中,尤其是文本情感分类中,效果也不错,相关的文章有《Deep Convolutional Neural Networks for Sentiment Analysis of Short Texts》。但是句子的原理不同于图像,直接将图像那一套用于语言,虽然略有小成,但总让人感觉不伦不类。因此,这并非自然语言处理中的主流方法。
在自然语言处理中,通常用到的方法是递归神经网络或循环神经网络(都叫RNNs)。它们的作用跟卷积神经网络是一样的,将矩阵形式的输入编码为较低维度的一维向量,而保留大多数有用信息。跟卷积神经网络的区别在于,卷积神经网络更注重全局的模糊感知(好比我们看一幅照片,事实上并没有看清楚某个像素,而只是整体地把握图片内容),而RNNs则是注重邻近位置的重构,由此可见,对于语言任务,RNNs更具有说服力(语言总是由相邻的字构成词,相邻的词构成短语,相邻的短语构成句子,等等,因此,需要有效地把邻近位置的信息进行有效的整合,或者叫重构)。
说到模型的分类,可真谓无穷无尽。在RNNs这个子集之下,又有很多个变种,如普通的RNNs,以及GRU、LSTM等,读者可以参考Keras的官方文档:http://keras.io/models/,它是Python是一个深度学习库,提供了大量的深度学习模型,它的官方文档既是一个帮助教程,也是一个模型的列表——它基本实现了目前流行的深度学习模型。
搭建LSTM模型 #
吹了那么久水,是该干点实事了。现在我们基于LSTM(Long-Short Term Memory,长短期记忆人工神经网络)搭建一个文本情感分类的深度学习模型,其结构图如下:
模型结构很简单,没什么复杂的,实现也很容易,用的就是Keras,它都为我们实现好了现成的算法了。
现在我们来谈谈有意思的两步。
第一步是标注语料的收集。要注意我们的模型是监督训练的(至少也是半监督),所以需要收集一些已经分好类的句子,数量嘛,当然越多越好。而对于中文文本情感分类来说,这一步着实不容易,中文的资料往往是相当匮乏的。笔者在做模型的时候,东拼西凑,通过各种渠道(有在网上搜索下载的、有在数据堂花钱购买的)收集了两万多条中文标注语料(涉及六个领域)用来训练模型。(文末有共享)
第二步是模型阈值选取问题。事实上,训练的预测结果是一个[0, 1]区间的连续的实数,而程序默认情况下会将0.5设为阈值,也就是将大于0.5的结果判断为正,将小于0.5的结果判断为负。这样的默认值在很多情况下并不是最好的。如下图所示,我们在研究不同的阈值对真正率和真负率的影响之时,发现在(0.391, 0.394)区间内曲线曲线了陡变。
虽然从绝对值看,只是从0.99下降到了0.97,变化不大,但是其变化率是非常大的。正常来说都是平稳变化的,陡变意味着肯定出现了什么异常情况,而显然这个异常的原因我们很难发现。换句话说,这里存在一个不稳定的区域,这个区域内的预测结果事实上是不可信的,因此,保险起见,我们扔掉这个区间。只有结果大于0.394的,我们才认为是正,小于0.391的,我们才认为是负,是0.391到0.394之间的,我们待定。实验表明这个做法有助于提高模型的应用准确率。
说点总结 #
文章很长,粗略地介绍了深度学习在文本情感分类中的思路和实际应用,很多东西都是泛泛而谈。笔者并非要写关于深度学习的教程,而是只想把关键的地方指出来,至少是那些我认为是比较关键的地方。关于深度学习,有很多不错的教程,最好还是阅读英文的论文,中文的比较好的就是博客http://blog.csdn.net/itplus了,笔者就不在这方面献丑了。
下面是我的语料和代码。读者可能会好奇我为什么会把这些“私人珍藏”共享呢?其实很简单,因为我不是干这行的哈,数据挖掘对我来说只是一个爱好,一个数学与Python结合的爱好,因此在这方面,我不用担心别人比我领先哈。
语料下载:sentiment.zip
采集到的评论数据:sum.zip
搭建LSTM做文本情感分类的代码:
import pandas as pd #导入Pandas
import numpy as np #导入Numpy
import jieba #导入结巴分词
from keras.preprocessing import sequence
from keras.optimizers import SGD, RMSprop, Adagrad
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation
from keras.layers.embeddings import Embedding
from keras.layers.recurrent import LSTM, GRU
from __future__ import absolute_import #导入3.x的特征函数
from __future__ import print_function
neg=pd.read_excel('neg.xls',header=None,index=None)
pos=pd.read_excel('pos.xls',header=None,index=None) #读取训练语料完毕
pos['mark']=1
neg['mark']=0 #给训练语料贴上标签
pn=pd.concat([pos,neg],ignore_index=True) #合并语料
neglen=len(neg)
poslen=len(pos) #计算语料数目
cw = lambda x: list(jieba.cut(x)) #定义分词函数
pn['words'] = pn[0].apply(cw)
comment = pd.read_excel('sum.xls') #读入评论内容
#comment = pd.read_csv('a.csv', encoding='utf-8')
comment = comment[comment['rateContent'].notnull()] #仅读取非空评论
comment['words'] = comment['rateContent'].apply(cw) #评论分词
d2v_train = pd.concat([pn['words'], comment['words']], ignore_index = True)
w = [] #将所有词语整合在一起
for i in d2v_train:
w.extend(i)
dict = pd.DataFrame(pd.Series(w).value_counts()) #统计词的出现次数
del w,d2v_train
dict['id']=list(range(1,len(dict)+1))
get_sent = lambda x: list(dict['id'][x])
pn['sent'] = pn['words'].apply(get_sent) #速度太慢
maxlen = 50
print("Pad sequences (samples x time)")
pn['sent'] = list(sequence.pad_sequences(pn['sent'], maxlen=maxlen))
x = np.array(list(pn['sent']))[::2] #训练集
y = np.array(list(pn['mark']))[::2]
xt = np.array(list(pn['sent']))[1::2] #测试集
yt = np.array(list(pn['mark']))[1::2]
xa = np.array(list(pn['sent'])) #全集
ya = np.array(list(pn['mark']))
print('Build model...')
model = Sequential()
model.add(Embedding(len(dict)+1, 256))
model.add(LSTM(128)) # try using a GRU instead, for fun
model.add(Dropout(0.5))
model.add(Dense(1))
model.add(Activation('sigmoid'))
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
model.fit(x, y, batch_size=16, nb_epoch=10) #训练时间为若干个小时
classes = model.predict_classes(xt)
acc = np_utils.accuracy(classes, yt)
print('Test accuracy:', acc)
转载到请包括本文地址:https://spaces.ac.cn/archives/3414
更详细的转载事宜请参考:《科学空间FAQ》
如果您还有什么疑惑或建议,欢迎在下方评论区继续讨论。
如果您觉得本文还不错,欢迎分享/打赏本文。打赏并非要从中获得收益,而是希望知道科学空间获得了多少读者的真心关注。当然,如果你无视它,也不会影响你的阅读。再次表示欢迎和感谢!
如果您需要引用本文,请参考:
苏剑林. (Aug. 04, 2015). 《文本情感分类(二):深度学习模型 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/3414
@online{kexuefm-3414,
title={文本情感分类(二):深度学习模型},
author={苏剑林},
year={2015},
month={Aug},
url={\url{https://spaces.ac.cn/archives/3414}},
}
April 17th, 2016
你好,我运行到一半就卡住了,代码如下:
Build model...
Warning (from warnings module):
File "C:\Python27\lib\site-packages\keras\models.py", line 325
warnings.warn('"class_mode" argument is deprecated, '
UserWarning: "class_mode" argument is deprecated, please remove it.
Epoch 1/10
你能帮我看一下是卡住了还是怎样吗?谢了
新版中class_mode这个参数已经分离出,参考官方文档。
好的,非常感谢。
我也遇到了这个问题,请问是怎么修改的
April 28th, 2016
您好,请问对于没有标注的文本做分类,有什么好的建议吗?是这样,我的原始数据是一些话,背景是消费金融行业的中介,目的是根据一句话来得到这句话描述的中介是正规还是非正规
May 2nd, 2016
楼主你好,我看不懂sum.xml里的无标注数据是有啥作用,貌似只是分词后为向量词典做了一部分补充,其他的训练和测试数据都是来自pos.xml和neg.xml的已标注数据,那sum.xml的数据有啥意义呢?求指点
无标注数据是我后面用来做预测的,也要提前训练好呀
请问‘后面用来做预测’这部分在这个程序里吗?没找到,我摘抄以下三行代码
pn['sent'] = pn['words'].apply(get_sent)
xa = np.array(list(pn['sent']))
classes = model.predict_classes(xa)
可见训练和测试貌似用的都是xa全集,这样没问题吗,97%+的正确率是不是存在过拟合
大神而不可以留个邮箱,我刚接触keras希望能交流一下
xa怎么来的?xa的上一级又是怎么来的?xa跟sum.xls没有关系吧?
对啊,完全没关系,所以说这个sum.xml除了在
d2v_train = pd.concat([pn['words'], comment['words']], ignore_index = True)
这里构建词典以外不知道有啥用处,训练和测试都使用的pos.xml和neg.xml数据啊
我也觉得可能是楼主代码写错了。fit那边应该是x y,predict那边应该是xt yt
我也感觉这部分有问题,x,xa,xt有点搞混了。。
我是这样子的:先用x,y训练,然后用xt,yt测试,测试发现可以了,然后就用全部数据xa,ya训练,然后将模型用于生产。这个代码是最后一步~
所谓代码仅供参考,大家根据自己需求调整嘛。
May 17th, 2016
[...]学习LSTM用于情感分类:http://kexue.fm/archives/3414/[...]
June 2nd, 2016
你好我运行到pn['words'] = pn[0].apply(cw)这行它报KeyError: 0错误,也就是没有键值0,我想问下这行作用是什么?我看能不能用其他方法代替
换成对应的列即可。这行的作用就是对p[0]这一列的每个元素都应用cw(分词)这个函数,说白了,对p[0]列分词。
June 8th, 2016
这应该存在过拟合了吧...
训练应该用x,y,测试应该用xt,yt才对吧
在我自己的实验(自己找的评论数据,正样本大约10000,负样本只有600,没办法就把您这里的负面样本导入进去了(虽然是不同行业)),经过6个小时训练(用CPU)后,在测试集里全部预测1,没有任何0,请问哪里有问题呢??
说说你的网络结构和建模过程?
我是这样子的:先用x,y训练,然后用xt,yt测试,测试发现可以了,然后就用全部数据xa,ya训练,然后将模型用于生产。这个代码是最后一步~
June 8th, 2016
没想到真回复了:)
我的样本都是在mysql库里,训练样本是从网上爬下来的评论,5星评价就认为是正面的评论,1,2星评论就认为是负面的.网上的评论大多数都是正面的评论,差评会比较少.我的情况是正面有10000条,负面只有600多条,全部训练后的结果是测试集上只预测1,不预测0,因此我把从这里下载下来的负面的评论大约10000条加入到了训练样本中,但是由于行业不同,训练后的结果是还是只预测1,不预测0,不知该如何是好
你的网络结构是完全复制本文的吗?也就是先词向量化,然后lstm训练预测?那应该不至于完全输出1啊,就算随机的也不至于。
June 16th, 2016
你好,如果一个句子中有多个主题,想要对每个主题进行情感分析的话该怎么办?
这就类似于分析文档级别的文本数据吧?这是业界的一个难题,主要难度是主题之间没有明显的分解。估计结合最近比较流行的基于多层LSTM的序列学习技术可以做到这一点,但是需要高性能的计算机和大量的标注语料才行,传统的方法可能真的比较难做了
June 23rd, 2016
你好,想问一下您贴的代码用到了word2vec工具嘛,还是这个工具也包含在keras里面?
另外这个只是一个2分类的演示,如果我有很多类别(标签),这个模型可用吗?谢谢
keras自带了词向量,那个embedding层就是。
多分类也可以用,最后改为softmax激活函数即可。
谢谢回复,我以前用到word2vec工具,需要大量的语料来训练模型,这个embedding的模型
是通过什么数据得到的呢,难道是和word2vec用的不同方法?
同样的使用方法。词向量的英文就是word embedding,keras只是顺便实现了,免得你又要调用其他工具来生成词向量罢了
明白了,谢谢。还有有个问题,在您贴出的代码中其实测试数据也参与了训练(统计词频),我试着用
没有参与模型训练的数据进行测试,但是还是需要把评论数据转化成和训练数据一样的形式(预处理耗费时间长),结果在运行到test['sent']=list(sequence.pad_sequences(test['sent'], maxlen=maxlen))的时候出现错误,请问有没有办法只输入一句文本然后给出分类结果
已经撰写了《文本情感分类(三):分词 OR 不分词》,估计可以回答你的问题。
June 28th, 2016
对你说的这句话有点疑问:你“先用x,y训练,然后用xt,yt测试,测试发现可以了,然后就用全部数据xa,ya训练,然后将模型用于生产。这个代码是最后一步~”
1)你用xt,yt测试的时候请问测试的准确率有多高?
2)实际生产过程中是全部数据xa,ya训练,并且对这全部数据进行测试的吗?那如果每天都会有新的数据源的话,岂不是每天都要更新模型?
1) 大约90%左右吧,这两天我会发一份详细的测试报告出来
2) 训练模型要标签数据,因此标签数据只有xa,ya。当然,也可以把新样本的预测结果当作标签数据来训练,增强模型的鲁棒性。
先用x,y训练,然后用xt,yt测试,这部分是用于保证模型的精度,并且确认这样的模型结构不会有过拟合现象。然后用全部数据训练,是因为确认这样的模型结构还不错之后,就用全部数据训练,因为一般来说数据越多,得出来的模型性能越好。
哪怕大家不同意我的做法,那也可以按照自己的想法去改,我这里只是提供一个案例~
这个模型时有监督的模型,训练时需要标签,实际生产的目的就是要预测标签的,所以训练一个泛化性能高的模型是非常必要的,当然数据量越大训练的模型也就越好,但是在实际中有可能要训练的样本不多,因为人工打标签比较耗时,而预测的样本量很大,不知道是否有很高的分类准确率
这就是模型的迁移性问题了,这确实是一大难题~
刚学lstm和keras,惊现大神的帖子。看了许久代码关于训练集,测试集,全集这里还有迷糊。您50-55行代码初始了x,y,xt,yt,xa,ya后续的代码只有xa,ya出现过,请问训练集的x和y不参与训练么。另外期待您详细的测试报告。
这是个参考代码,怎么训练你决定~另外,这个文章的代码已经过时,新代码参考http://kexue.fm/archives/3863/