纽约大学研究人员使用BERT进行文章再排序
如今,ELMo、OpenAI GPT 和 BERT 这样在语言模型任务上预训练的神经模型在各种自然语言处理任务上取得了惊人的成绩,例如问答、自然语言推理等。在论文《PASSAGE RE-RANKING WITH BERT》中,纽约大学的研究人员介绍了 BERT 在基于问答的文章再排序任务上的再实现。研究人员表示,该系统在 TREC-CAR 数据集上取得了顶级成果,在 MS MARCO 文章检索任务排行榜上取得了第一名的成绩,在 MRR@10 任务上超越了先前顶级水平 27% 左右。复现代码地址: https://github.com/nyu-dl/dl4marco-bert。