作者:常健新、张晨斌、傅智毅、臧晓雪、关琳、吕静、惠轶群、冷德维、牛亚男、宋洋 论文地址:https://arxiv.org/abs/2302.02352






行为的固有属性 (inherent features),即该视频的与 user 行为无关的自有属性,例如视频的作者、时长、分类、video id 等。
行为的用户交叉属性 (user-item cross features),即特定 user 与 item 交互而产生的属性,例如用户的观看时长,用户的点赞反馈,观看时间戳等。






在 GSU 模块 涉及到 1 万到 10 万个行为序列的线性变换,虽然计算量大,但是却可以通过预计算 - 查表的方式加速。
经过维度压缩后,计算量较小,可以实时计算。由于 query 中没有交叉属性,所以此项以 bias 项形式添加进来,
是一个可学习的权重,表示各个 bias 项的相对重要性。
是 query 的线性变换,即 target video 的 embedding,计算量极小,与序列长度无关。




训练系统:每天实时训练 46billion 条用户 - 视频交互 log,并每 5 分钟一次,把用最新数据训练的最新模型参数和 embedding 同步给其他模块。以保证所有模块,都能得到最新的训练数据中的知识。 离线预计算:提前计算 ,并存储成字典格式,供在线 GSU 服务时查询。经过一定的长尾过滤,我们成功的把 video id 限制在 8billion 级别,并覆盖 97% 的线上请求。如此线性映射计算模块,可以用最新的 embedding 和线性映射权重矩阵,在 15 分钟内对字典全面滚动更新一次。
在线服务:我们的预计算 - 查询策略,节约了计算瓶颈(即 )中 99.3% 的计算量。现在该服务在峰时能每秒处理 3 千万视频的请求量。

