文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录
行业内参
AI Daily
AI Daily 快讯 · 2019/04/03
76分钟训练BERT!谷歌大脑新型优化器LAMB加速大批量训练
去年,谷歌发布了基于双向 Transformer 的大规模预训练语言模型 BERT 并开源。该模型参数量非常大——3 亿,训练时间也很长。近日,在论文《Reducing BERT Pre-Training Time from 3 Days to 76 Minutes》中,来自谷歌大脑的研究者提出了一种新型优化器 LAMB,有效降低 BERT 预训练时间,76 分钟即可完成 BERT 预训练!
登录
后评论
暂无评论~
登录
去登录
文章库
PRO会员通讯
SOTA!模型
AI 好好用
文章库
PRO通讯会员
SOTA!模型
AI 好好用
登录