摘要
涉案微博评价对象抽取旨在从微博评论中识别出用户评价的案件对象词项,有助于掌握大众对于特定案件不同方面的舆论。现有方法通常将评价对象抽取视为一个序列标注任务,但并未考虑涉案微博的领域特点,即评论通常围绕正文中出现的案件关键词展开讨论。为此,本文提出一种基于关键词结构编码的序列标注模型,进行涉案微博评价对象抽取。首先从微博正文中获取多个案件关键词,并使用结构编码机制将其转换为关键词结构表征,然后将该表征通过交互注意力机制融入评论句子表征,最后利用条件随机场(Conditional random field, CRF)抽取评价对象词项。在两个案件的数据集上进行了实验,结果表明:相较于多个基线模型,本文方法性能得以提升,验证了所提方法的有效性。
微博等社交媒体的蓬勃发展让人们获得更丰富、更及时的信息,同时每天也会产生大量评论。其中,与案件相关的评论在网络上迅速传播,所产生的舆论会干扰有关机构的工作。为此,获取涉案微博评论的评价对象,对于后续进行案件相关评论的细粒度情感分析,掌握案件舆论走向具有重要的作用。
涉案微博评价对象抽取的目的是从微博用户的评论文本中识别出被评价的对象,例如,在“这次事故女司机是无辜的”这一评论中,需要识别出评价对象“女司机”。针对评价对象抽取任务,目前的方法主要分为基于规
涉案微博评价对象抽取任务具有特定的领域性。针对某个案件,网友的评论通常都会围绕微博正文中所提及的案件发生的人物、地点等关键词展开。换句话说,正文中出现的案件关键词构成了用户评论的评价对象。如
因此,可以利用微博正文中的案件关键词信息作为引导,帮助模型识别用户评论中的评价对象。然而,案件关键词之间是独立的,不存在序列依赖关系。因此,借助Lin
本文的主要贡献如下:
(1) 结合涉案微博数据的特点,提出了利用微博正文中的关键词信息指导评论中的评价对象抽取。
(2) 提出利用结构编码机制对微博正文关键词进行编码,从而能综合利用多个关键词信息,构建涉案微博评价对象抽取模型。
(3) 在人工标注的“奔驰女司机维权案”和“重庆公交车坠江案”涉案微博数据集上进行实验,证明了模型的有效性。
现有的评价对象抽取的模型主要分为基于规则、基于传统机器学习和基于深度学习的抽取模型。
(1)基于规则的抽取方法是利用人工定义的规则和句法依存关系抽取评价对象词项。例如,Hu
(2)基于传统机器学习的抽取方法一般是将其定义为一个序列标注任务。例如,Kessler
(3)基于深度学习的抽取方法可以自动学习特征,在该任务上表现出了强大性能。例如,Li
从上述研究工作来看,基于深度学习的模型对于评价对象抽取任务是有效的,但是对于涉案微博这类特定数据而言,有其自身的领域特性。因此,本文提出基于关键词结构编码的涉案微博评价对象抽取方法。
本文提出的评价对象抽取模型使用B(begin)、I(inside)和O(other)进行字符级别的标签标注。其中,B代表评价对象的起始位置,I代表评价对象内部,O代表不是评价对象。数据标注示例如
本文模型的基本结构分为评论编码层、关键词编码层、信息融合层和评价对象抽取层4部分,如

图1 涉案微博的评价对象抽取示意图
Fig.1 Schematic diagram of evaluation object extraction of the case-involved microblog
由于涉案微博评论的主观性和表达方式的自由性,其评价对象可能会出现多字少字的情况,造成分词结果不准确。因此本文按照字符粒度对评论数据集进行标注,并且同时使用字符嵌入和词嵌入作为评论的初始表示。给定一个微博评论句子,字符序列和词序列按照字符长度进行对齐。即对于每个字符,都为其分配包含该字符的词。字符向量序列和词向量序列分别表示为和,其中表示句子中字符的总个数,表示句子中第个位置的字符,表示第个位置的字符对应的词。将词嵌入和字符嵌入分别输入Bi LSTM进行编码,并将编码得到的隐表示和进行拼接得到表示,具体如下
(1) |
(2) |
(3) |
式中:表示拼接操作;表示嵌入维度。
然后将其输入双层高速网
(4) |
式中:表示非线性函数;表示转换门;表示携带门;、和为权重矩阵。
本文使用TextRank分别从两个案件的微博正文中抽取案件关键词。给定一个评论句对应的一组案件关键词,其词向量序列表示为,其中表示关键词的总个数。将其送入BiLSTM,得到具有上下文语义特征的案件关键词向量表示。
(5) |
本文使用结构编码操作将具有上下文语义特征的案件关键词的向量表示转化为结构化表示,具体如下
(6) |
(7) |
式中:为权重矩阵;和为可训练的参数;为超参数,表示转换为结构化表示的结构数量。
因为权重矩阵容易面临过度平滑的问题,即权重矩阵中的值趋于相似。为了让权重矩阵中的值更加具有区分性,本文引入了惩罚项。具体而言,受Lin
(8) |
式中:表示单位矩阵;为矩阵的Frobenius范数。
将具有上下文语义特征的评论多层次向量表示与关键词编码层得到的结构化表示做交互注意力,由此得到的关键词表征用来表示评论句,具体操作如下。
如

图2 交互注意力机制
Fig.2 Cross attention mechanism
(9) |
式中注意力权重用相应的匹配分数通过函数计算得到,通过特征向量和的双线性乘积计算得到
(10) |
(11) |
式中和为可训练的参数。
将上述融合之后的信息与评论句子字符嵌入通过Bi⁃LSTM得到的隐表示进行点乘,再和评论句子词嵌入通过BiLSTM得到的隐表示进行简单拼接,得到最终的表征。
(12) |
式中“”表示按位相乘。该表征既融合了关键词信息,又保留了原有的评论句字符级信息和词级信息在时序上的上下文依赖关系。
将通过一个线性层后,得到表示,其中是序列中第个字符的标签的得分。设输入序列为,标签序列为,标签预测的分数为
(13) |
(14) |
式中:为转移分数矩阵;表示从标签转移到标签的分数。对所有可能的标签序列的得分应用函数,从而得到给定输入的条件下标签序列的概率。本文使用负对数似然函数作为损失函数,最后通过维特比算法得到条件概率最大的输出序列。
(15) |
(16) |
式中表示第个训练实例的惩罚项,见
本文构建了两个涉案微博数据集,并对其评价对象进行人工标注,分别为“奔驰女司机维权案”与“重庆公交车坠江案”,具体如
考虑到涉案微博评论数据的复杂性,本文对其进行了如下预处理:首先,去掉涉案微博评论数据集中重复的数据;其次,删除评论中出现的超链接广告,同时删除其中类似“@+用户名”的噪声数据;然后,如果评论中出现某些标点符号连续重复,比如“。。。”“!!!”等,使用首位标点符号将其替换,同时删除评论中出现的表情符号;最后,为了确保涉案微博评论的完整性,删除其中字符数少于7的评论。
本文的评价指标使用的是精确率(P)、召回率(R)、F1值,计算公式分别为
(17) |
(18) |
(19) |
式中:TP表示正例被正确判定为正例;FP表示负例被错误判定为正例;FN表示正例被错误判定为负例。
本文实验所使用的预训练词向
实验使用随机梯度下降算法(SGD)优化参数,dropout的大小设置为0.4,学习率设置为0.012,L2设置为1e-8。
为了验证本文模型的有效性,分别与CRF、LSTM⁃CRF、BiLSTM⁃CRF、BiLSTM⁃CNN⁃CRF、Seq2Seq4ATE和BERT⁃CRF六个基准模型进行了对比实验。基准模型介绍如下。
(1)CR
(2)LSTM⁃CR
(3)BiLSTM⁃CR
(4)BiLSTM⁃CNN⁃CR
(5)Seq2Seq4AT
(6)BERT⁃CR
为了保证比较的公平性,本文实验将上述模型的学习率、dropout、批次等参数设置为与本文模型一致,LSTM的隐层向量大小设置为100,CNN卷积核的尺寸设置为(2,3,4)。BERT⁃CRF实验中使用的BERT预训练语言模型为Google发布的BERT⁃Base(Chinese)模型。实验分别在两个数据集上进行,
为了验证本文模型中结构编码机制和案件关键词信息的有效性,针对“奔驰女司机维权案”数据集进行了消融实验。
第1个消融模型是“(⁃)案件关键词”,表示去掉模型中的关键词编码层和信息融合层,仅仅是对微博评论句子进行编码,将得到的多层次向量表示送入CRF抽取评价对象词项。
第2个消融模型是“(⁃)结构编码”,表示去掉结构编码机制,仅仅将具有上下文语义特征的案件关键词的向量表示与评论句子的多层次向量表示做交互注意力,后续操作与主模型保持一致。两个消融模型的实验结果如
本文针对两个数据集分别采用不同数量的案件关键词进行了实验,实验结果如

图3 设置不同关键词数量的F1值对比
Fig.3 Comparison of F1 values of different numbers of keywords
为了探究案件关键词质量对模型的影响,本文分别采用TextRank和TF⁃IDF两种关键词提取方法进行了实验。由于上述实验结果证明,抽取20个关键词融入模型的效果最好,所以从“奔驰女司机维权案”数据集的正文中利用两种方法分别抽取20个关键词,抽取结果如
将
本文提出了一种基于关键词结构编码的涉案微博评价对象抽取方法。该方法通过结构编码机制综合利用微博正文的案件关键词信息,并通过交互注意力机制将其融入评论句子表示,来指导评价对象的抽取。在两个数据集上的实验结果证明了本文所提方法在涉案微博评价对象抽取方面的有效性。所提出的结构编码机制使模型能够更准确地抽取评价对象词项,且使用TextRank抽取一定数量的关键词融入模型能够得到最好的性能。未来的研究工作考虑融入其他涉案领域外部知识来改善评价对象抽取的结果。
参考文献
Hu Minqing, Liu Bing. Mining and summarizing customer reviews[C]//Proceedings of the 10th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM, 2004: 168-177. [百度学术]
Zhuang Li, Jing Feng, Zhu Xiaoyan. Movie review mining and summarization[C]//Proceedings of the 15th ACM International Conference on Information and Knowledge Management. New York: ACM, 2006: 43-50. [百度学术]
Blair-Goldensohn S, Hannan K, Mcdonald R, et al. Building a sentiment summarizer for local service reviews[C]//Proceedings of the Workshop on NLP in the Information Explosion Era.Stroudsburg, PA: ACL, 2008: 339-348. [百度学术]
Qiu Baojun, Zhao Kang, Mitra P, et al. Get online support, feel better-sentiment analysis and dynamics in an online cancer survivor community[C]//Proceedings of the 3rd International Conference on Social Computing. Piscataway, NJ: IEEE,2011: 274-281. [百度学术]
Kessler J S, Nicolov N. Targeting sentiment expressions through supervised ranking of linguistic configurations[C]//Proceedings of the 3rd International AAAI Conference on Weblogs and Social Media. Menlo Park, California: AAAI, 2009:90-97. [百度学术]
Jin Wei, Hung H H, Srihari R K. A novel lexicalized hmm-based learning framework for web opinion mining[C]//Proceedings of the 26th Annual International Conference on Machine Learning. New York: ACM, 2009: 465-472. [百度学术]
Jakob N, Gurevych I. Extracting opinion targets in a single and cross-domain setting with conditional random fields[C]//Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2010:1035-1045. [百度学术]
Shu Lei, Xu Hu, Liu Bing. Lifelong learning crf for supervised aspect extraction[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Lin-guistics. Stroudsburg, PA: ACL, 2017: 148-154. [百度学术]
Li Yanzeng, Liu Tingwen, Li Diying, et al. Character-based BILSTM-CRF incorporating POS and dictionaries for Chinese opinion target extraction[C]//Proceedings of the 10th Asian Conference on Machine Learning. Vienne, Austria: PMLR, 2018: 518-533. [百度学术]
Li Xin, Lam W. Deep multi-task learning for aspect term extraction with memory interaction[C]//Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen: EMNLP, 2017: 2886-2892. [百度学术]
Li Xin, Bing Lidong, Li Piji, et al. Aspect term extraction with history attention and selective transformation[C]//Proceedings of the 27th International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2018: 4194-4200. [百度学术]
Wang Wenya, Pan S J, Dahlmeier D, et al. Coupled multi-layer attentions for co-extraction of aspect and opinion terms[C]//Proceedings of the 31st AAAI Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2017: 3316-3322. [百度学术]
Ma Dehong, Li Sujian, Wu Fangzhao, et al. Exploring sequence-to-sequence learning in aspect term extraction[C]//Proceedings of the 57th Conference of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2019: 3538-3547. [百度学术]
He Ruidan, Lee W, Ng H, et al. An unsupervised neural attention model for aspect extraction[C]//Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2017: 388-397. [百度学术]
Luo Ling, Ao Xiang, Song Yan, et al. Unsupervised neural aspect extraction with sememes[C]//Proceedings of the 28th International Joint Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2019: 5123-5129. [百度学术]
Tulkens S, Cranenburgh A V. Embarrassingly simple unsupervised aspect extraction[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 3182-3187. [百度学术]
Li Kun, Chen Chengbo, Quan Xiaojun, et al. Conditional augmentation for aspect term extraction via masked sequence-to-sequence generation[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2020: 7056-7066. [百度学术]
Lin Zhouhan, Feng Minwei, dos Santos C N, et al. A structured self-attentive sentence embedding[EB/OL]. (2017-03-03). https://arxiv.org/abs/1703.03130. [百度学术]
Srivastava R K, Greff K, Schmidhuber J. Highway networks[EB/OL]. (2015-05-03). https://arxiv.org/abs/1505.00387. [百度学术]
Huang Zhiheng, Xu Wei, Yu Kai. Bidirectional LSTM-CRF models for sequence tagging[EB/OL]. (2015-08-01). https://arxiv.org/abs/1508.01991. [百度学术]
Ma Xuezhe, Hovy E. End-to-end sequence labeling via Bi-directional LSTM-CNNs-CRF[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2016: 1064-1074. [百度学术]
Devlin J, Chang Mingwei, Lee K, et al. BERT: Pre-training of deep bidirectional transformers for language understanding[C]//Proceedings of the 2019 Conference of the North American Chapter of the Computational Linguistics. Stroudsburg, PA: ACL, 2019: 4171-4186. [百度学术]