本文提出一个单词级自适应图交互网络来建模每个单词与多个意图交互,从而为槽位预测提供细粒度的意图信息。在三个数据集上的实验表明所提出模型的有效性,并达到SOTA的性能。
Auto Byte
专注未来出行及智能汽车科技
微信扫一扫获取更多资讯
Science AI
关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展
微信扫一扫获取更多资讯
本文提出一个单词级自适应图交互网络来建模每个单词与多个意图交互,从而为槽位预测提供细粒度的意图信息。在三个数据集上的实验表明所提出模型的有效性,并达到SOTA的性能。
本文介绍事件间因果关系方向数据,此类任务通过关注两个实体间的语义关系,可以得到包含语义关系的实体关系三元组。
本文中,我们针对数据到文本生成的内容规划问题提出了数值数据理解和重要信息验证模块,实验结果表明我们的模型相比之前的模型在内容规划能力上得到提升。
本文以高分被COLING 2020录用,且获得审稿人的最佳论文奖推荐(Recommendation for Best Paper Award)。
在本文中,我们回顾了经典预训练语言模型在中文场景下的性能表现,以验证这些模型在非英文语种上的通用性。同时我们提出了一种基于文本纠错的预训练语言模型MacBERT。
实验结果表明,属性一致性识别模型有助于提高开放域对话回复的一致性。
本文介绍常识问答任务,主要关注融合外部知识的常识问答模型。
开放域对话系统由于潜在回复数量过大而存在着训练数据不足的问题。我们在本文中提出了一种利用反事实推理来探索潜在回复的方法。
该列表每条信息包括论文题目,作者,PDF链接,论文来源,是否有实现代码,可以帮助研究者快速整合该方向核心资料,并会长期维护和迭代整理现有论文列表。
本次更新中,我们将预训练语料从原有的约20G提升至180G,利用接近9倍大小的数据集。在阅读理解、自然语言推断、句对分类等中文自然语言处理任务中,ELECTRA-180G相比原版ELECTRA获得了显著性能提升。
本文录用于Findings of EMNLP 2020。本文提出面向编程语言和自然语言的预训练模型CodeBERT。
本文介绍了情感分析中引入外部知识的部分工作,简要介绍了现阶段情感分析常用的外部知识,从最常见的情感词典入手,逐步介绍基于情感词典的情感词向量、预训练语言模型,展示了使用多任务学习融合词性、依存句法等文本底层特征抽取器的工作,最后介绍了近期热门的使用结构化外部知识的文本情感迁移学习工作。
本文重点介绍了哈工大社会计算与信息检索研究中心副主任车万翔教授和博士生覃立波在跨领域、跨语言和跨任务的任务型对话系统中所做的一些研究工作。
事件及其在时间、空间上相继发生的演化规律和模式这一动态知识在知识图谱中记录得不充分,为了弥补这一不足,事理图谱应运而生,其节点表示事件,有向边表示事件之间的演化关系。它能够揭示事件的发展逻辑,刻画和记录人类行为活动。
本文介绍以文档为额外知识的生成式对话系统。根据当前研究中对文档的不同处理方式,我们将其分为三类(以句子为单位建模,直接建模文档,文档结构化处理),对每个类别进行了简要的介绍。最后我们总结了该研究领域面临的挑战,希望对相关研究者有所帮助。
哈尔滨工业大学社会计算与信息检索研究中心有九篇长文被录用,其中四篇被主会录用,五篇被Findings of EMNLP子刊录用。