网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于集成一致性的多源跨领域情感分类模型  PDF

  • 梁俊葛 1
  • 线岩团 1,2
  • 相艳 1,2
  • 王红斌 1,2
  • 陆婷 1
  • 许莹 1
1. 昆明理工大学信息工程与自动化学院, 昆明, 650500; 2. 昆明理工大学云南省人工智能重点实验室, 昆明, 650500

中图分类号: TP274

最近更新:2020-10-21

DOI:10.16337/j.1004-9037.2020.05.007

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
目录contents

摘要

现有的跨领域情感分类方法大多只利用了单个源域到目标域的迁移特征,没有充分考虑目标域实例与不同源域之间的联系。针对此问题,本文提出一种无监督的多源跨领域情感分类模型。首先利用单个源域到目标域的迁移特征训练基分类器,并对不同的基分类器加权;然后将不同基分类器对目标域实例预测的集成一致性作为目标函数,优化该目标函数,得到不同基分类器的权重;最后利用加权后的基分类器得到目标域的情感分类结果。该模型在亚马逊产品评论数据集上和Skytrax数据集上进行了实验,并与6种基线模型进行了比较。实验结果表明,本文方法相比基线模型,在8个不同目标域的实验中分类性能均有明显提升。

引 言

传统的跨领域情感分类是将在源域学习到的特征表示迁移到目标域[

1⁃3]。由于不同的源域与目标域之间的特征分布的不同,单源域迁移的分类器仅仅利用了单源域迁移至目标域的特征,对多源域的迁移特征并没有充分利用。在实际应用中,跨领域迁移可以利用多个源域的情感标签数据,从多个领域进行情感迁移,而不是仅仅只利用单一的领域。例如,Kitchen产品领域可能包括对烹饪书或电子设备的评论,这些评论不能完美的与单个领域(如书籍或电子产品)的特征对齐,通过集成来自多个领域的不同信息,可以更好地适应目标域的特征分布,得到更好的情感分类结果。

利用多个源域数据的直接方法是将它们的数据组合成单个领域。然而,这种策略没有考虑到不同源域和目标域实例之间的关系,将不同领域的特征构建到共同的特征空间中可能会清除部分领域的特征,并导致负面转移,影响情感分类器在目标域的性[

4⁃5]。对此,本文提出一种无监督的多源跨领域情感分类模型。使不同的源域与目标域在特征空间对齐,得到不同的基分类器。对于每个目标域实例,其预测结果为各个基分类器预测结果的加权组合,分类器权重反映了目标域实例与源域的相关程度。引入集成一致性度量函数,分类器权重是该度量函数的主要参数。当不同基分类器对目标域实例预测结果高度一致时,该度量函数达到最大值,此时的分类器权重最优。与传统方法相比,本文提出的基于集成一致性的多源跨领域情感分类模型,不需要任何的目标域情感标签,摆脱了目标域实例预测时对情感标签的依赖。本文采用亚马逊公开数据集和Skytrax数据集作为模型的评测数据集,并与6种跨领域情感分类模型进行了比较。实验结果表明,本文方法与传统的单源模型和多源模型相比,具有更高的跨领域情感分类准确率。

1 跨领域情感分类方法

1.1 单源跨领域情感分类方法

多源跨领域情感分类方法以单源跨领域情感分类为基础。现有的单源跨领域情感分类方法大多是通过对齐源域特征和目标域特征,来减少不同领域间的域间差。Yu[

6]用2个神经网络来学习在跨域任务中有用的句子嵌入,通过共同训练卷积递归神经网络模型,预测源域句子的情感标签,并同时预测枢轴的存在。Bollegala[7]提出了跨领域词嵌入表示模型,通过约束枢轴特征在不同领域之间有着相似的词嵌入表示,来解决跨领域任务中枢轴特征的词嵌入分布问题。Ganin[8]提出DANN模型,利用领域对抗训练方法来使神经网络产生混淆领域分类器的表示。为了提高深度模型的可解释性,Li[9]将内存网络合并到了DANN模型中以自动识别枢轴特征。Ziser[10]提出了神经结构对应模型,通过结合结构对应学习和自编码器模型,提出了AE⁃SCL模型和AE⁃SCL⁃SR模型。利用神经网络结构的优势,在非枢轴特征和枢轴特征之间建立起映射关系。通过自编码器将不同领域的特征迁移到低维度的特征空间中去,得到跨领域任务的迁移特征;基于迁移特征来减少源域和目标域之间的域间差。

1.2 多源跨领域情感分类方法

多源跨领域情感分类任务需考虑的主要问题是不同领域间的联系。Yasuhisa[

11]提出了多源域到目标域的跨领域情感分类的概率生成模型。在该方法中,每个特征都分配了领域标签、领域独立性标签以及情感极性3个属性。然而,该方法并没有考虑源域和目标域之间的相似性,此外,尽管方法中使用了未标记的数据,但未利用未标记目标域中有用的情感知识。Duan[12]提出一种基于域适应机制的方法,通过利用在多个源域中独立训练的分类器,学习目标域中的最小二乘SVM分类器,以监督的方式使用标记数据来学习全局域相似性度量。Yu[13]使用标签数据以监督方式学习全局域相似度。Bhatt[14]利用目标域的未标记数据,来构建与目标域实例相似的源域实例的辅助训练集。Chen[15]将源域特征与全局的目标域特征对齐,而不考虑每个源域对于目标域实例的重要性。 与以上方法不同的是,本文将集成一致性度量函数作为集成分类器的目标函数,当不同的基分类器对目标域实例的类别预测达到高度一致时,表明分类器达到集成一致性,此时分类器的权重最优。基于此权重集成基分类器,可以达到更好的跨领域情感分类效果。

2 本文方法

问题描述:本文遵循多源跨领域情感分类设置,设定源域标签数据来源于m个源域:Si={(xtSi,ytSi)}i=1m(xtSi,ytSi)表示第i个源域中第t个实例及其对应的情感标签。目标域数据定义为:T={xtT}xtT表示目标域中第t个实例。多源跨领域情感分类任务的目标是集成多源域数据,并在目标域中取得较好的分类效果。

2.1 算法流程

基于集成一致性的多源跨领域情感分类模型流程如图1所示。选定基分类器,通过源域至目标域的迁移特征,训练得到不同源域到目标域的基分类器;由此得到目标域实例在不同源域中的分类概率。此时引入集成一致性作为集成分类器的目标函数,并优化不同源域到目标域的分类器的权重,当各个基分类器对目标域实例的预测达到集成一致性最大时,表明集成分类器的性能最优。目标域实例的预测结果由最优权重下的各分类器加权集成得到。

图1 基于集成一致性的多源域跨领域情感分类流程图

Fig.1 Flow chart of multiple source domain cross-domain emotion classification based on ensemble consistency

2.2 集成一致性

基于信息熵的集成一致性原则描述如下:利用不同源域到目标域的迁移特征训练得到不同的分类器,并预测目标域实例的情感极性;当各分类器对目标域实例预测高度一致时,信息熵达到最小,模型达到集成一致性。

本文使用Logistics分类器为基分类器。定义集成分类器HH=hii=1m,第hi个Logistics分类器对输入实例的极性预测概率为pi,那么m个分类器的平均概率分布为

p¯=i=1mpim (1)

由此得到平均概率p¯的信息熵的计算公式

E(p¯)=p¯log1p¯ (2)

本文以情感二分类问题为例来说明一致性度量的作用,如表1所示。

表1 概率分布与一致性度量
Table 1 Probability distributions and consistency measures
输入实例h1预测实例结果p1

h2预测实例

结果p2

h3预测结果p3平均概率p¯信息熵E一致性C
x1T (0,1) (0,1) (0,1) (0,1) 0 0
x2T (0,1) (1,0) (0.5,0.5) (0.5,0.5) log2 -log2

表1中,x1Tx2T为目标域的实例,p1,p2,p3分别为各源域至目标域的Logistics基分类器h1h2h3对目标域实例的预测结果,p¯为平均概率。对实例的预测结果的维度为2维,分别表示实例属于类别1和类别2 的概率。对于实例x1T,所有分类器预测达到完全一致,以100%的概率属于类别2。3个分类器对实例预测结果的共识程度达到最大值,因此可以判断出实例x1T属于第2个类别,此时平均概率p¯的信息熵E(0,1)达到了最小值0。对于实例x2T,前2个分类器分别预测它属于类别1和类别2,而第3个分类器预测它分别属于类别1、2的概率各占50%。3个分类器对实例的预测结果完全不一致,几乎不能判别实例所属的类别,共识程度为最小,此时平均概率p¯的信息熵E(0.5,0.5)达到其最大值log2。因此,信息熵的负数可作为不同预测结果的一致度量。基于熵的一致性度量为

C(p1,,pm)= -E(p¯) (3)

式中,C为一致性度量值,p1,,pmm个分类器对实例预测的概率,E式(2) 所示的信息熵,p¯为由式(1)得到的平均概率。信息熵的和取相反数即一致性度量值C

2.3 权重优化

基于加权集成分类器模型的一致性度量函数为

fw=-i=1mwipimlog(1i=1mwipim)    wi>0, i=1mwi=1 (4)

式中,w为集成分类器的权重集合,wi为第hi个分类器对应的权重,m为基分类器的数目,f(w)为集成分类器的一致性度量值,当不同分类器加权后计算得到的f(w)值达到最大时,分类器对目标域实例预测结果的共识程度达到最大。

本文使用模拟退火(Simulated annealing, SA)算法寻找最优参数wi使f(w)的值达到最大。模拟退火算法以一定的概率接受比当前解效果差的解,更有利于跳出局部优化达到全局优化,得到集成一致性的全局最大值,算法描述如下:

(1) 给定初始值t0,终止值t1T=t0,给定初始可行解wii=1,2,,m,目标函数f(w),设定每一个T值下的迭代次数L

(2) 迭代次数计数器l=1,2,,L,重复步骤(3)至步骤(6);

(3) 产生新解wi_new,不断更改自变量的值wi_new=wi+ΔwΔw[0,1]之间产生的随机变量;

(4) 计算Δf=f(wi_new)-f(wi),优化目标f(w)

(5) 如果Δf0,接受wi_new为当前解,否则以一定的概率-eΔfkT接受新解为当前解;

(6) 判断每个T值下的是否达到迭代次数L,达到终止条件,则退出;

(7) 判断T值是否达到终止条件,设T的下降幅度为αT=α*T,逐渐下降,T>t0, 转步骤(2)。否则,获得当前最优解f(w)

基于集成一致性的多源跨领域分类模型的时间复杂度主要为其寻优算法的时间复杂度,即模拟退火算法的时间复杂度O(n)。

3 实验与分析

3.1 实验数据

本文方法在亚马逊产品评论数据[

16]上进行了实验。该数据集为跨领域情感分类任务中的标准数据集,一共包括4个领域,即电子产品(Electronics)、书本(Book)、厨具(Kitchen)和DVD,如表2所示。每个领域中提供了2 000条已标记数据,其中1 000条数据为正向数据,1 000条数据为负向数据。另外,每个领域还包括大量的无标签数据,用于辅助训练非枢轴特征和枢轴特征的映射。

表2 亚马逊产品数据
Table 2 Datasets of Amazon Product
Domain

正向

数据数目

负向

数据数目

未标记

数据数目

Book (B) 1 000 1 000 6 000
DVD (D) 1 000 1 000 34 741
Kitchen (K) 1 000 1 000 13 153
Electronics (E) 1 000 1 000 16 785

本文方法还在Skytrax评论数据[

17]上进行了实验,该数据集由航空公司(Airline),机场(Airport),休息室(Lounge)和座位(Seat)4个领域组成,Skytrax数据如表3所示。

表3 Skytrax数据
Table 3 Datasets of Skytrax
Domain

正向

数据数目

负向

数据数目

Airline 220 800 19 281
Airport 3 914 1 000
Lounge 816 1 000
Seat 453 1 000

3.2 基线模型

(1) AE⁃SCL模型

该模型为文献[

10]所提出的模型,枢轴特征在源域和目标域数据中出现词频均超过20,枢轴特征的数目设为100,隐层特征空间维度为500维。

(2) AE⁃SCL⁃SR

该模型为文献[

10]所提出的模型,模型参数与AE⁃SCL模型一致,其中隐层到输出层的权重矩阵固定不变,以得到更好的迁移特征。

(3) IDDIWP

该模型为文献[

11]所提出的模型,通过识别依赖和不依赖域的独立词极性,来进行多域情感分析。Gibbs采样的迭代次数为300,然后根据最近的50次的迭代结果来确定文档的极性。

(4)DWHC

该模型为文献[

18]所提出的模型,通过加权不同源域来得到目标域分布表示,加权参数α{0.1, 0.2,,1.0}

(5)CP⁃MDA

该模型为文献[

19]所提出的模型,该模型通过使用伪标签来训练目标域的分类器。将用于计算权重的拉普拉斯图矩阵设置为二进制类型,N近邻中的N值为10,使用五折交叉验证,惩罚因子γA设置为0.014。

(6)DAN

该模型为文献[

8]所提出的模型,利用领域对抗神经网络,来完成多域情感分类。使用5折交叉验证法,学习率设置为0.000 1,丢失率设置为0.4,隐层特征空间维度分别为1 000和500两层。

(7)MAN

该模型为文献[

15]所提出的模型,通过对抗训练模型,可以学习跨多个领域的常规和领域特定特征。使用5折交叉验证法,训练、验证以及测试数据比例为3∶1∶1。

(8) PBLM⁃LSTM

该模型为文献[

20]所提出的模型。通过自动构建情感字典并使用它来学习基于枢轴特征的语言模型,然后将语言模型学习到的嵌入特征送入到LSTM层中进行情感分类。枢轴特征在源域和目标域数据中出现词频均超过20,枢轴特征的数目为500,隐层维度空间为256维度。

3.3 实验设置

本文实验分2部分,第1部分为本文集成方法与单源域迁移的实验结果对比。本文分别选用AE⁃SCL和AE⁃SCL⁃SR模型来提取单源域迁移特征,AE⁃SCL和AE⁃SCL⁃SR模型将非枢轴特征向量矩阵作为神经网络的输入,将枢轴特征向量作为神经网络的输出,通过在非枢轴特征和枢轴特征之间建立起连接,得到隐层的迁移特征。在得到迁移特征后,训练Logistics分类器预测情感极性。第2部分为本文模型与基线模型的实验结果对比。本文从数据集中选取1个领域为目标域,剩下3个领域为源域。选用Logistics作为基分类器,训练得到3个源域到目标域的分类器h1h2h3。模拟退火优化算法中,初始值t0=10 000,终止值t1=0.1,迭代次数 L=1 000。设置Logistics分类器h1h2的初始权重w1,w2为[0.1,0.5]区间的随机值,分类器h3的权重w3=1-w1-w2T值不断下降,下降幅度α=0.95

3.4 实验结果与分析

3.4.1 实验评估指标

本文采用准确率来评估情感分类的效果,定义为

Acc=TN (5)

式中,T为预测正确样本数,N为样本的总数。准确率度量的是所有样本中预测正确样本的百分比。

3.4.2 集成方法与单源跨领域模型的实验结果对比

本文分别用AE⁃SCL和AE⁃SCL⁃SR作为提取单源域迁移特征的模型,在得到单源域迁移特征后,使用本文方法训练并集成Logistics分类器,得到多源跨领域情感分类的结果。实验结果对比如表4所示。

表4 集成方法与单源跨领域模型的实验结果
Table 4 Experimental results of ensemble method and single source cross⁃domain model
模型B为目标域E为目标域K为目标域
DBEBKBBEDEKEBKDKEK
AE⁃SCL 75.8 70.1 74.2 74.4 76.3 82.8 79.5 80 84.8
本文方法 76.0 81.75 84.6
AE⁃SCL⁃SR 77.3 71.1 73.0 76.8 78.1 84 80.1 80.3 84.6
本文方法 77.2 82.5 85.65

表4的结果可以看出,以AE⁃SCL为特征迁移模型时,本文方法明显优于AE⁃SCL单源域的准确率。其中以B为目标域时,本文方法比EB单源域情感分类准确率提高了5.9%;以E为目标域时,本文方法比BE的单源域情感分类准确率提高了7.35%。

以AE⁃SCL⁃SR为特征迁移模型时,本文方法明显优于AE⁃SCL⁃SR单源域的准确率,其中以B为目标域时,本文方法比EB单源域情感分类准确率提升了6.1%;以E为目标域时,本文方法比BE单源域情感分类准确率提升了5.7%。

以上实验结果说明了使用不同的特征迁移基模型时,本文方法均可以取得较好的实验结果。与单源域实验结果对比,基于集成一致性多源域的方法可以更准确地预测目标域实例所属的情感类别,减少了目标域对单源域的依赖,缓解了因源域不同导致分类性能差异较大的缺点。

3.4.3 与基线模型实验结果对比

为了验证本文方法的有效性,本文在亚马逊产品评论数据集以及Skytrax数据集上进行了实验。亚马逊数据集上的实验结果如表5所示,Skytrax数据集上的实验结果如表6所示。

表5 亚马逊数据集的实验结果
Table 5 Experimental results of the Amazon datasets
模 型BookDVDElectronicsKitchen
IDDIWP 75.24 77.32 81.67 83.83
DWHC 76.11 78.21 78.21 84.78
CP⁃MDA 75.97 77.92 83.31 84.65
DAN 73.41 74.82 78.58 80.17
MAN 74.28 73.50 79.35 80.63
PBLM⁃LSTM 76.07 78.56 74.21 80.01
本文方法 77.2 79.5 82.5 85.65
表6 Skytrax数据集的实验结果
Table 6 Experimental results of the Skytrax datasets
模 型AirlineAirportLoungeSeat
DAN 75.07 68.94 72.00 71.27
MAN 76.33 66.58 68.02 72.14
PBLM⁃LSTM 82.05 73.98 72.18 70.94
本文方法 84.0 70.75 72.58 73.16

表5可以看出,对于多源跨领域情感分类任务,本文方法在4组实验中有3组实验结果取得所有模型中最高的准确率。与IDDIWP模型相比,本文方法在以DVD为目标域的分类实验中准确率提升了2.12%,在4组实验中平均提升了1.7%。与DWHC模型相比,本文方法在以Electronics为目标域的实验中准确率提升了5.10%,在4组实验中平均提升了1.89%。与CP⁃MDA模型相比,本文方法在以DVD为目标域的实验中分类准确率提升了1.58%,在4组实验中平均提升了0.75%。与DAN、MAN、PBLM⁃LSTM模型相比,本文方法在4组实验中均取得了最好的分类效果。可以看出,将集成一致性作为目标函数,通过优化不同分类器间的权重,可以得到对目标域实例的最佳预测。

表6可以看出,在Skytrax数据集上的实验,本文方法取得了较好的分类结果。与DAN、MAN模型相比,本文在4组目标域的实验中,分类准确率均优于DAN模型和MAN模型,其中以Airline为目标域的实验中,本文方法优于DAN模型8.93%,优于MAN模型7.67%,验证了在跨领域情感分类任务中,集成多源域可以达到更好的分类效果。与PBLM⁃LSTM模型相比,本文有3组实验结果优于该模型,其中以Seat为目标域的实验中,本文方法优于该模型2.22%。充分验证了本文方法引入集成一致性的有效性。

与基线模型的实验对比验证了本文方法的有效性,说明基于集成一致性的多源域跨领域情感分类模型,可以很好地集成目标域实例在不同源域的表征,更准确地预测目标域实例的情感极性。并且,基于一致性的集成多源域情感分类结果比较稳定,不再局限于单域的影响,摆脱了当源域不同、域间差异不同时,分类性能差异明显的缺点。本文模型训练以及预测过程中,并没有用到目标域的标签,相对于弱监督、半监督任务需要部分目标域标签来辅助训练,本文模型摆脱了对目标域标签的依赖。

4 结束语

针对跨领域情感分类任务,本文提出了基于多源域集成的跨领域情感分类模型。充分利用不同源域分类器对目标域实例的预测概率,引入集成一致性,最大化不同源域分类器对同一目标实例的预测共识。通过优化算法得到分类器权重,达到多源域集成模型的一致性。本文方法集成了多源域的优势,得到了稳定的情感分类结果。实验结果表明,本文方法相比基线模型能够更好地解决跨领域情感分类任务。本文的多源域集成方法性能受限于单源域迁移特征,在今后的工作中可以考虑使用其他单源域特征迁移方法,以进一步提高分类质量。

参考文献

1

VON Grünigen D, WEILENMANN M, DERIU J, et al. Potential and limitations of crosss-domain sentiment classification[C]//Proceedings of the Fifth International Workshop on Natural Language Proceedings for Social Medial. Spain: Association for Computational Linguistics, 2017: 17-24. [百度学术

2

HE R, Sun L W, TOU N H, et al. Adaptive semi-supervised learning for cross-domain sentiment classification[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Belgium: Association for Computational Linguistics, 2018: 3467-3476. [百度学术

3

BOLLEGALA D, Mu T, GOULERMAS J. Cross-domain sentiment classification using sentiment sensitive embeddings[J]. IEEE Transactions on Knowledge & Data Engineering, 2016, 28(2): 398-410. [百度学术

4

KFIR A, Jing L, MINGYI S, et al. Neural best-buddies: sparse cross-domain correspondence[J]. ACM Transactions on Graphics (TOG), 2018, 37(4): 1-14. [百度学术

5

ABDELWAHAB O, ELMAGHRABY A. Deep learning based v.s. markov chain based text generation for cross domain adaptation for sentiment classification[C] //Proceedings of 2018 IEEE International Conference on Information Reuse and Integration. USA: IEEE, 2018: 252-255. [百度学术

6

YU Jianfei, JIANG Jing. Learning sentence embedding with auxiliary tasks for cross-domain sentiment classification[C]//Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. USA: Association for Computational Linguistics, 2016: 236-246. [百度学术

7

BOLLEGALA D, MAECHARA T, KAWARABAYASHI K. Unsupervised cross-domain word representation learning[C]//Proceedings of the 53th Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Proceedings. [S.l.]: Association for Computational Linguistics, 2015: 730-745. [百度学术

8

GANIN Y, USTINOVA E, AJAKAN H, et al. Domain-adversarial training of neural networks[J]. Journal of Machine Learning Research, 2015, 17(1): 2096-2030. [百度学术

9

LI Z, ZHANG W, wu Y, et al. End-to-end adversarial memory network for cross-domain sentiment classification[C]//Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence. Australia: Morgan Kaufmann, 2017: 2237-2243. [百度学术

10

ZISER Y, REICHART R. Neural structural correspondence learning for domain adaptation[C]//Proceedings of the 21st Conference on Computational Natural Language Learning. Canada: Association for Computational Linguistics, 2017: 400-410 . [百度学术

11

YASUHISA Y, TSUTOMU H, TOMOHARU I, et al. Transfer learning for multiple-domain sentiment analysis-identifying domain dependent/independent word polarity[C]//Proceedings of the Twenty-Fifth Conference on Artificial Intelligence. USA: AAAI, 2011: 1286-1291. [百度学术

12

DUAN Lixin, IVOR W T , XU Dong, et al. Domain adaptation from multiple sources via auxiliary classifiers[C] //Proceedings of the 26th Annual International Conference on Machine Learning. Canada: ACM, 2009: 289-296. [百度学术

13

YU Mo, GUO Xiaoxiao, YI Jinfeng, et al. Diverse few-shot text classification with multiple metrics[C]//Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. USA: Association for Computational Linguistics, 2018: 1206-1215. [百度学术

14

BHATT H S, SINHA M, ROY S. Cross-domain text classification with multiple domains and disparate label sets[C]//Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Germany: Association for Computational Linguistics, 2016: 1641-1650. [百度学术

15

CHEN X, CARDIE C. Multinomial adversarial networks for multi-domain text classification[C]//Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. USA: Association for Computational Linguistics, 2018: 1226-1240. [百度学术

16

JOHN Blitzer. Amazon dataset[EB/OL]. (2007-08-02). http://www.cs.jhu.edu/~mdredze/datasets/sentiment /index2.html. [百度学术

17

SKYTRAX. Skytrax user reviews dataset[EB/OL]. (2015-08-02) [2018-12-27]. https://github.com/quankiquanki/ skytrax-reviews-dataset. [百度学术

18

MANSOUR Y, MOHRI M, ROSTAMIZADEH A. Domain adaptation with multiple Sources[C]//Proceedings of Neural Information Processing Systems. Canada: NIPS, 2009: 1041-1048. [百度学术

19

CHATTOPADHYAY R, Ye Jieping, PANCHANATHAN S, et al. Multi-source domain adaptation and its application to early detection of fatigue[C] //Proceedings of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. USA: ACM, 2011: 717-725. [百度学术

20

ZISER Y, REICHART R. Pivot based language modeling for improved neural domain adaptation[C]//Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. USA: Association for Computational Linguistics, 2018: 1241-1251. [百度学术