文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录
行业内参
AI Daily
AI Daily 快讯 · 2019/10/18
DeepMind 新研究论文,「为强化学习稳定 Transformer」
近日,DeepMind一篇名为“为强化学习稳定Transformer”在社交媒体上引发广泛关注。该研究论文概述道:在这项工作中,我们证明了标准的 Transformer 架构难以优化,这是以前在监督式学习环境中观察所得,但是对于强化学习目标尤其明显。我们建议对体系结构进行修改,以大幅提高原始 Transformer 的稳定性和学习速度。
登录
后评论
暂无评论~
登录
去登录
文章库
PRO会员通讯
SOTA!模型
AI 好好用
文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录