机器之心

首页 > 资源 > NIPS 2016上22篇论文的实现汇集

资源

NIPS 2016上22篇论文的实现汇集

2017-01-03 14:25:51         
2 0 0

日前,LightOn CEO 兼联合创始人 Igor Carron 在其博客上放出了其收集到的 NIPS 2016 论文的实现(一共 22 个)。他写道:「在 Reddit 上,peterkuharvarduk 决定编译所有来自 NIPS 2016 的可用实现,我很高兴他使用了『实现( implementation)』这个词,因为这让我可以快速搜索到这些项目。」除了 peterkuharvarduk 的推荐,这里的项目还包括 Reddit 其他用户和 Carron 额外添加的一些新公布的实现。最终他还重点推荐了 GitXiv:http://www.gitxiv.com 。另外,在本文后面还附带了机器之心关于 NIPS 2016 的文章列表,千万不要错过。


1. 使用快速权重关注最近的过去(Using Fast Weights to Attend to the Recent Past)


2. 通过梯度下降来学习通过梯度下降的学习(Learning to learn by gradient descent by gradient descent)



3. R-FCN:通过基于区域的全卷积网络的目标检测(R-FCN: Object Detection via Region-based Fully Convolutional Networks)



4. 用于 k-均值的快速和可证明的 Good Seedings(Fast and Provably Good Seedings for k-Means)



5. 如何训练生成对抗网络(How to Train a GAN)



6. Phased LSTM:为长的或基于事件的序列加速循环网络训练(Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences)



7. 生成对抗式模仿学习(Generative Adversarial Imitation Learning)



8. 对抗式多类分类:一个风险最小化的角度(Adversarial Multiclass Classification: A Risk Minimization Perspective)



9. 通过视频预测的用于物理交互的无监督学习(Unsupervised Learning for Physical Interaction through Video Prediction)



10.权重规范化:一种加速深度神经网络训练的简单重新参数化( Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks)



11. 全容量整体循环神经网络(Full-Capacity Unitary Recurrent Neural Networks)



12. 带有随机层的序列神经模型(Sequential Neural Models with Stochastic Layers)



13. 带有快速局部化谱过滤的图上的卷积神经网络(Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering)



14. Interpretable Distribution Features with Maximum Testing Power 



15. 使用神经网络组成图模型,用于结构化表征和快速推理(Composing graphical models with neural networks for structured representations and fast inference )



16. 使用张量网络的监督学习(Supervised Learning with Tensor Networks)



17. 使用贝叶斯条件密度估计的模拟模型的快速无ε推理(Fast ε-free Inference of Simulation Models with Bayesian Conditional Density Estimation)



18. 用于概率程序的贝叶斯优化(Bayesian Optimization for Probabilistic Programs)



19. PVANet:用于实施目标检测的轻权重深度神经网络(PVANet: Lightweight Deep Neural Networks for Real-time Object Detection)



20. 数据编程:快速创建大训练集(Data Programming: Creating Large Training Sets Quickly)



21. 用于架构学习的卷积神经结构(Convolutional Neural Fabrics for Architecture Learning)



22. 价值迭代网络(Value Iteration Networks)



机器之心 NIPS 2016 文章列表


深度 | NIPS 2016最全盘点:主题详解、前沿论文及下载资源(附会场趣闻)

独家 | 吴恩达 NIPS 2016 演讲现场直击:如何使用深度学习开发人工智能应用?

独家 | 机器之心对话 NIPS 2016 最佳论文作者:如何打造新型强化学习观?

独家 | GAN 之父 NIPS 2016 演讲现场直击:全方位解读生成对抗网络的原理及未来

资源 | Bengio 和 LeCun 在 NIPS 2016 上的演讲

学界 | NIPS 2016 公布 571 篇接收论文

学界 | NIPS 2016 论文 SpotlightVideo 精选,三分钟了解一项最新研究进展

学界 | NIPS 2016 现场:谷歌发布 28 篇机器学习论文

学界 | DeepMind NIPS 2016 论文盘点(Part1):强化学习正大步向前

学界 | DeepMind NIPS 2016 论文盘点(Part2):无监督学习的新进展

业界 | NIPS 2016 现场:LeCun 联同英伟达,推深度学习教学工具包

业界 | 波士顿动力最新机器人亮相 NIPS 2016,但还未用到机器学习

声明:本文由机器之心编译出品,原文来自niut-blanche,转载请查看要求,机器之心对于违规侵权者保有法律追诉权。

  1. 网站转载请在文章开头粗体注明:本文转载自机器之心,标明作者,并附上本文链接。
  2. 微信公众号转载请在开头粗体注明:本文转载自机器之心,标明作者,并设置阅读原文链接为本文链接,微博转载请附上本文链接并@机器之心synced。
  3. 网站和微信转载具体文章后需来信至邮箱operation@jiqizhixin.com说明,备注转载文章标题、转载的微信号名称和转载日期。
  4. 机器之心只接受如上几种转载方式,其余均视为侵权,如需商业合作请致信bd@jiqizhixin.com。

相关文章

 亚马逊Alex Smola:为什么你的机器学习代码运行速度慢

亚马逊Alex Smola:为什么你的机器学习代码运行速度慢

机器学习确实还没商品化,也不必需博士学位

机器学习确实还没商品化,也不必需博士学位

谷歌为YouTube添加新功能:利用机器学习自动生成音效字幕

谷歌为YouTube添加新功能:利用机器学习自动生成音效字幕

评论

共有0条评论,点击展开

同步到新浪微博