本次推荐了三篇关于情感生成、情感分析、迁移学习、机器翻译双向解码的论文。
一、
推荐组:SA
推荐人:吴洋(研究方向:情感分析)
论文题目:Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory
作者:Hao Zhou, Minlie Huang, Tianyang Zhang, Xiaoyan Zhu, Bing Liu
出处:AAAI 2018
论文主要相关:情感生成
简评:
这篇论文探索了“如何控制生成文本中的情感”这一问题,是中文情感生成领域的前沿工作。
论文模型中encoder部分采用传统的encoder,decoder部分进行了多处具有创新的改动。一是加入了Internal Memory部分,该部分是受到心理学理论的启发而设计的,即人的情感强度随着表达不断衰减。二是加入了External Momory部分,该部分将情感词与情感词分开进行softmax计算概率,并用系数来调整当前对两类词的输出偏好。三是加入Emotion Category Embedding部分旨在让解码器每一步都能得到要生成情感的指示信息。
Decoder部分的大体流程是一开始通过指定的情感得到对应的Emotion Category Embedding,与此同时在Internal Memory部分计算读出门和写入门的值,读出门的值点乘情感单元的值得到要输出到解码单元中的向量,写入门的值点乘情感单元的值即是下一个时间步情感单元的值。当前时间步的解码单元得到情感单元输出值和Emotion Category Embedding之后,将其与context向量拼接,计算出当前解码单元的输出,利用输出向量通过External Momory来计算输出词的概率分布。
评价方式采取了两种方式,第一种使用生成的文本与规定的情感极性是否一致,即计算accuracy。第二种,使用人工的方式,对文本的内容和情感打分,在这个过程中,采取一些统计学方法说明人工打分没有偏见。最终结果表明,三处的改动均起到提升的作用。
论文链接:
https://arxiv.org/pdf/1704.01074.pdf
二、
推荐组:SP
推荐人:石乾坤(研究方向:股市预测)
论文题目:End-to-End Adversarial Memory Network for Cross-domain Sentiment Classification
作者:Zheng Li, Yu Zhang, Ying Wei, Yuxiang Wu, Qiang Yang
出处:IJCAI 2017
论文主要相关:情感分析,迁移学习
简评:情感分析指的是对一句话的情感倾向(表扬/批评)进行分析,自然语言处理领域中,学者们经常使用亚马逊商品评论作为该领域的标准数据集,这些评论包括电子用品评论、书籍评论、DVD评论等。
情感分析任务中,一个针对A领域(如针对电子用品的评论)训练出的模型,如果用来判别其他领域(如针对书籍的评论)的情感倾向,模型的表现往往较差,这种特点被称为领域独立。该特点使得训练一个针对各领域通用的模型较为困难,而针对每种评论都训练出一个模型又需要大量标注数据,耗时耗力。为解决这个问题,学者们提出了迁移学习模型。
本文提出了Adversarial Memory Network(AMN)模型以进行领域迁移,该模型中的Attention机制可以自动捕捉文本中的关键词,模型中的一个Memory network用于情感分析,另一个Memory network结合Gradient Reversal Layer用于领域混淆。针对上文中提到亚马逊商品评论数据集,该模型的表现显著超过了baseline模型,取得了State of the art的效果。除此之外,该模型还可以显式的给出文本中表达情感的关键词(如great, terrible等),其模型的可解释性也优于其他的深度学习模型。
论文链接:
https://www.ijcai.org/proceedings/2017/311
三、
推荐组:TG
推荐人:耿昕伟(研究方向:文本生成技术研究)
论文题目:Asynchronous Bidirectional Decoding for Neural Machine Translation
作者:Xiangwen Zhang, Jinsong Su, Yue Qin, Yang Liu, Rongrong Ji , Hongji Wang
出处:AAAI 2018
论文主要相关:机器翻译双向解码
简评:传统的机器翻译模型在解码过程中由于使用RNN,所以其只能进行从左到右或者从右向左的单方向的解码。然而实际中发现从左到右和从右向左两种解码方式可以实现信息的互补,例如现在经常使用的双向RNN进行编码。
本文首先使用一个从右向左的backward decoder对输入进行解码,在此过程中生成解码端隐含层序列,其包含相应的解码端上下文信息。然后使用另外一个从左到右的forward decoder进行二次解码,在解码每一步,其用当前的隐含层表示不仅attend编码器生成的隐含层序列,而且也使用backward decoder的隐含层序列获取有用的解码端上下文信息。实验显示,该模型相比传统的NMT模型在中英和英德机器翻译任务上分别取得3.14和1.38个BLEU提升。
论文链接:
https://arxiv.org/pdf/1801.05122.pdf
本文来源于哈工大SCIR