本栏目每周将推荐若干篇由师生精心挑选的前沿论文,分周三、周五两次推送。
本次推荐了三篇关于序列化建模、注意力机制、自然语言推理、文本蕴含识别、事件检测和多语言机制的论文。
1、推荐组:CR
推荐人:刘元兴(研究方向:推荐)
论文题目:Neural Aentive Session-based Recommendation
作者:Jing Li, Pengjie Ren, Zhumin Chen, Zhaochun Ren, Jun Ma
出处:CIKM 2017
论文主要相关: 序列化建模、注意力机制
简评:
基于会话过程(session)的推荐指的是,在给定用户当前会话过程中的商品点击序列数据的前提下,预测下一次用户点击。传统基于会话过程的推荐工作仅仅使用了一次会话过程中用户的点击行为序列。作者在这篇论文中引入了注意力机制来获取用户点击的主要目标。具体而言作者使用GRU模型的最后一个隐层状态输出作为全局编码表示,使用GRU每个时刻的隐层状态输出结合注意力权重的结果作为局部编码表示。全局编码表示代表了用户在当前会话过程中点击的全局目标,局部编码表示代表了用户在当前会话过程中点击的主要目标。最后将两个表示拼接,通过双线性解码输出每个商品的排名得分,根据得分输出预测结果。
论文链接:
https://arxiv.org/pdf/1711.04725.pdf
源代码链接:
https://github.com/lijingsdu/sessionRec_NARM
2、推荐组:QA
推荐人:郭茂盛(研究方向:文本蕴含、自然语言推理)
论文题目:Neural Natural Language Inference Models Enhanced with External Knowledge.
作者:Qian Chen, Xiaodan Zhu, Zhen-Hua Ling, Diana Inkpen and Si Wei.
出处:ACL 2018
论文主要相关:自然语言推理、文本蕴含识别
简评:
人类在自然语言文本上进行推理(或识别文本蕴含)需要借助自身积累的背景知识,而近期的基于神经网络的自然语言推理(Natural Language Inference)的方法却只能从训练集中获得相关知识。这篇文章的贡献在于向神经网络模型中融入了WordNet这样的人工构建的知识,并借助这些知识,在SNLI语料上取得了0.6%的提升(Accuracy)。该文在一个现有的识别蕴含的模型ESIM中的各个步骤中尝试添加知识(基于WordNet词对的同义词、反义词以及上下位词),并对外部知识的添加方法与比重进行了测试。这种添加知识的方法对与其他任务也有所启发。
论文链接:
https://arxiv.org/abs/1711.04289
3、推荐组:RC
推荐人:冯夏冲(研究方向:信息抽取)
论文题目:Event Detection via Gated Multilingual Attention Mechanism
作者:Jian Liu,Yubo Chen,Kang Liu,Jun Zhao
出处:AAAI 2018
论文主要相关:事件检测、多语言机制、注意力机制
简评:
这篇论文针对Event Detection任务中数据稀疏和单语歧义的问题,提出一种Gated MultiLingual Attention (GMLATT) 框架,利用多语言信息,并结合注意力机制来完成Event Detection任务。GMLATT方法一共分为四步,第一步为多语言映射,首先使用翻译工具得到源语言到目标语言的翻译,接着使用工具完成多语言对齐;第二步为句子表示,使用Bi-GRU学习句子表示;第三步为多语言信息融合,该部分是GMLATT的核心部分,分别为:使用单语文本注意力机制学习一种语言的表示和使用跨语言门控注意力机制来控制目标语言流向源语言的信息;第四步为事件类型预测。该方法在ACE2005数据集上取得了SOTA结果。论文中使用了一种语言作为目标语言,但是可以将目标语言扩展到多种,并且可以将该方法运用在其他任务之上。
论文链接:
http://www.nlpr.ia.ac.cn/cip/~liukang/liukangPageFile/Liu_aaai2018.pdf