正如大家所知,NeurIPS是 机器学习领域的顶级会议,在中国计算机学会的国际学术会议排名中,NeurIPS为 人工智能领域的A类会议,国外甚至有很多高校已经把 NeurIPS论文的发表数量当做是接收本科生申请研究生的门槛了。
论文名 | 引用量 |
Attention Is All You Need | 934 |
Improved Training of Wasserstein GANs | 830 |
Dynamic Routing Between Capsules | 358 |
Self-Normalizing Neural Networks | 317 |
Unsupervised Image-to-Image Translation Networks | 296 |
PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space | 254 |
What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision? | 209 |
Prototypical Networks for Few-shot Learning. | 203 |
Inductive Representation Learning on Large Graphs. | 195 |
A simple neural network module for relational reasoning. | 195 |
Multi-Agent Actor-Critic for Mixed Cooperative-Competitive Environments. | 145 |
Hindsight Experience Replay. | 131 |
GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium. | 127 |
Understanding the Effective Receptive Field in Deep Convolutional Neural Networks. | 124 |
One-Shot Imitation Learning. | 121 |
LightGBM: A Highly Efficient Gradient Boosting Decision Tree. | 118 |
Dual Path Networks. | 111 |
The Marginal Value of Adaptive Gradient Methods in Machine Learning. | 108 |
Spectrally-normalized margin bounds for neural networks. | 102 |
下面为大家简要概述引用量排名前3的论文。
《Attention Is All You Need》这篇论文提出了一种新的简单网络架构,transformer,仅基于注意机制,彻底免除了循环和 卷积 神经网络 。两个 机器翻译任务的实验显示了这些模型质量优越,同时可以更加并行化并且需要更多训练的时间减少了。论文中的模型在WMT 2014英语 - 德语上达到28.4 BLEU翻译任务,改进现有的最佳成果,包括 集成学习结果,超过2 BLEU。
由于改进了翻译质量和其他NLP任务,该文的Transformer架构自发布以来获得了很大的关注。哈佛大学的NLP研究小组曾发布了一篇帖子,该文章以逐行实施的形式呈现了该论文的注释版本。它附带了400行库代码,用PyTorch以笔记本的形式编写,可以从github或Google Colab上使用免费的GPU访问。
链接:http://nlp.seas.harvard.edu/2018/04/03/attention.html
《Improved Training of Wasserstein GANs》一文中,研究者们提出了一种替代 权重 剪枝实施Lipschitz约束的方法:惩罚critic对输入的梯度。该方法 收敛速度更快,并能够生成比 权重 剪枝的 WGAN更高质量的样本。 WGAN的critic函数对输入的梯度相比于GAN的更好,因此对生成器的优化更简单。另外, WGAN的值函数是与生成样本的质量相关的,这个性质是GAN所没有的。
该文提供了一种训练GAN的稳定的算法,能够更好的探索哪种架构能够得到最好的 生成模型性能。该方法也打开了使用大规模图像或语言数据集训练以得到更强的模型性能的大门。
代码链接:https://github.com/caogang/wgan-gp
《Dynamic Routing Between Capsules》引入了一个新的构建块,可用于 深度学习,以更好地模拟 神经网络内部知识表示内的层次关系。Hinton和他的团队提出了一种方法来训练这样一个由Capsules组成的网络,并成功地在一个简单的数据集上训练它,实现最先进的性能。
也许有人会觉得这个想法非常简单,为什么以前没有人能想出来?事实是Hinton几十年来一直在思考这个问题。没有出版物的原因仅仅是因为之前没有技术方法可以使它发挥作用。其中一个原因是在2012年之前,计算机处在一个不够强大的基于GPU之前的时代。另一个原因是没有算法允许实现并成功学习Capsules网络(以同样的方式实现人工神经元自1940年代以来就存在,但直到1980年代中期才出现 反向传播算法并允许成功训练深度网络)