本栏目每周将推荐若干篇由师生精心挑选的前沿论文,分周三、周五两次推送。
本次推荐了三篇关于共指消解、注意力机制、指称识别、指称聚类、问答系统和动词分类的论文。
1、推荐组:CR
推荐人:李凌志(研究方向:对话系统)
论文题目:Neural Coreference Resolution with Deep Biaffine Attention by Joint Mention Detection and Mention Clustering
作者:Rui Zhang, Cicero Nogueira dos Santos, Michihiro Yasunaga, Bing Xiang, Dragomir R. Radev
出处:ACL 2018
论文主要相关:共指消解、注意力机制、指称识别、指称聚类
简评:本文聚焦在实体共指消解任务上,该任务一般划分为指称识别和指称聚类两部分。本文在CoNLL2012英文数据集的The-state-of-the-art的模型基础上,主要提出两点创新,首先是提出了一种双仿射注意力网络模型来为先行词打分,并联合优化指称识别的准确率和给定标签后指称聚类的对数似然概率,从而在CoNLL-2012上达到了新的最佳实验结果。
模型借鉴了Lee et al. (2017)的模型结构,采用双向LSTM建模文本表示,并在上一层添加头部寻找注意力层(Head-Finding Attention),用于对预定义的span进行注意力建模,得到文本表示后,联合建模每一对spans的先行词和指代词概率,得到了最终的共指打分分数。并在损失函数里线性建模了识别和聚类两部分损失值。
论文链接:
https://arxiv.org/pdf/1805.04893.pdf
2、推荐组:QA
推荐人:乐远(研究方向:问答系统、阅读理解)
论文题目:Simple and Effective Multi-Paragraph Reading Comprehension
作者:Christopher Clark, Matt Gardner
出处:ACL 2018
论文主要相关:问答系统、阅读理解
简评:当前很多阅读理解模型都是针对段落级别的,而如果输入是文档,计算开销将很大,该篇文章提出使用段落级别的模型来处理文档级别的输入。作者提出使用TF-IDF的方法来选择段落,并且还给出准确计算段落confidence score的Shared-Normalization方法,实验结果表明Shared-Normalization的方法远远优于Merge、No-Answer Option以及简单的sigmoid方法,能够更好的选择包含答案的那个段落。最后作者将这种方法和当前state-of-the-art的pipelined方法结合,并将目标函数更改为summed training objective,在几个文档问答的数据集上都取得了不错的效果,而且在TriviaQA数据集上达到了71.3的F值,比之前高了近15个点。其对文档的处理方法很具有启发意义。
论文链接:
https://arxiv.org/pdf/1710.10723v1.pdf
3、推荐组:RC
推荐人:刘一仝(研究方向:事件抽取)
论文题目:Cross-Lingual Induction and Transfer of Verb Classes Based on Word Vector Space Specialisation
作者:Ivan Vulic , Nikola Mrkšic , Anna Korhonen
出处:EMNLP 2017
论文主要相关:VerbNet,跨语言,词向量,语义迁移
简评:VerbNet是由Palmer设计的一个比较全面的,能够提供谓词论元结构、题元角色、选择限制、语义成分的动词分类系统。它能够提供语义和相应的句法框架,便于语义处理。现有的模仿VerbNet动词分类体系的动词分类方法,很大程度上依赖于特征工程,这种方式只能在已经具有成熟NLP处理技术的语言上进行运用。本文提出了一种全新的跨语言迁移VerbNet信息,实现VerbNet风格的动词自动聚类的方法。文章首先构建英语与目标语言的单词级别的对齐关系,将这种关系作为同义约束。然后通过VerbNet的分类信息,将处于同一类别下的动词相互配对构成吸引约束。根据同义约束和吸引约束构建跨语言的动词联通图。本文以最大化同一类别下词向量的相似程度,最小化不同类别下词向量的相似程度,并最大化保留词语原本的词义信息为目标构造目标函数,不断训练调整目标语言的词向量直至收敛。最后采用k-means算法对目标语言的词向量进行聚类,得到包含VerbNet动词分类信息的目标语言的动词分类体系。本文在6种语言上进行实验均取得了不错的效果。
论文链接:
http://aclweb.org/anthology/D17-1270
微信公众号原文链接: