最新发布《数智时代的AI人才粮仓模型解读白皮书(2024版)》,立即领取! 了解详情
写点什么

YouTube 深度学习推荐系统的十大工程问题

  • 2019-01-13
  • 本文字数:4626 字

    阅读完需:约 15 分钟

YouTube深度学习推荐系统的十大工程问题

这里是王喆的机器学习笔记的第三篇文章,这篇文章紧接着上篇文章 《重读 YouTube 深度学习推荐系统论文,字字珠玑,惊为神文》,如果没有读过的同学还是强烈建议翻看一下这篇文章,熟悉文中抛出的问题。


因为这篇文章主要介绍了 YouTube 深度学习系统论文中的十个工程问题,为了方便进行问题定位,我们还是简单介绍一下背景知识,简单回顾一下 Deep Neural Networks for YouTube Recommendations中介绍的 YouTube 深度学习推荐系统的框架。



YouTube 推荐系统架构


简单讲,YouTube的同学们构建了两级推荐结构从百万级别的视频候选集中进行视频推荐,第一级candidate generation model负责“初筛”,从百万量级的视频库中筛选出几百个候选视频,第二级ranking model负责“精排”,引入更多的feature对几百个候选视频进行排序。


不管是 candidate generation model 还是 ranking model 在架构上都是 DNN 的基本结构,不同的是输入特征和优化目标不同。但正如我在上一篇文章中讲的,如果你仅读懂了 YouTube 的模型架构,至多获得了 30%的价值,剩下 70%的价值就在于下面的十大工程问题。废话不多说,我们进入问题的解答。


1、文中把推荐问题转换成多分类问题,在预测 next watch 的场景下,每一个备选 video 都会是一个分类,因此总共的分类有数百万之巨,这在使用 softmax 训练时无疑是低效的,这个问题 YouTube 是如何解决的?


这个问题原文的回答是这样的


We rely on a technique to sample negative classes from the background distribution (“candidate sampling”) and then correct for this sampling via importance weighting.


简单说就是进行了负采样(negative sampling)并用 importance weighting 的方法对采样进行 calibration。文中同样介绍了一种替代方法,hierarchical softmax,但并没有取得更好的效果。当然关于采样的具体技术细节以及优劣可能再开一篇文章都讲不完,感兴趣的同学可以参考tensorflow中的介绍以及NLP领域的经典论文


也欢迎有相关经验的同学在评论中给出简明的回答。


2、在 candidate generation model 的 serving 过程中,YouTube 为什么不直接采用训练时的 model 进行预测,而是采用了一种最近邻搜索的方法?


这个问题的答案是一个经典的工程和学术做 trade-off 的结果,在 model serving 过程中对几百万个候选集逐一跑一遍模型的时间开销显然太大了,因此在通过 candidate generation model 得到 user 和 video 的 embedding 之后,通过最近邻搜索的方法的效率高很多。我们甚至不用把任何 model inference 的过程搬上服务器,只需要把 user embedding 和 video embedding 存到 redis 或者内存中就好了。


但这里我估计又要求助场外观众了,在原文中并没有介绍得到 user embedding 和 video embedding 的具体过程,只是在架构图中从 softmax 朝 model serving module 那画了个箭头(如下图红圈内的部分),到底这个 user vector 和 video vector 是怎么生成的?有经验的同学可以在评论中介绍一下。



Candidate Generation Model, video vector 是如何生成的?


3、Youtube 的用户对新视频有偏好,那么在模型构建的过程中如何引入这个 feature?


为了拟合用户对 fresh content 的 bias,模型引入了“Example Age”这个 feature,文中其实并没有精确的定义什么是 example age。按照文章的说法猜测的话,会直接把 sample log 距离当前的时间作为 example age。比如 24 小时前的日志,这个 example age 就是 24。在做模型 serving 的时候,不管使用那个 video,会直接把这个 feature 设成 0。大家可以仔细想一下这个做法的细节和动机,非常有意思。


当然我最初的理解是训练中会把 Days since Upload 作为这个 example age,比如虽然是 24 小时前的 log,但是这个 video 已经上传了 90 小时了,那这个 feature value 就是 90。那么在做 inference 的时候,这个 feature 就不会是 0,而是当前时间每个 video 的上传时间了。


我不能 100%确定文章中描述的是那种做法,大概率是第一种。还请大家踊跃讨论。


文章也验证了,example age 这个 feature 能够很好的把视频的 freshness 的程度对 popularity 的影响引入模型中。



从上图中我们也可以看到,在引入“Example Age”这个 feature 后,模型的预测效力更接近经验分布;而不引入 Example Age 的蓝线,模型在所有时间节点上的预测趋近于平均,这显然是不符合客观实际的。


4、在对训练集的预处理过程中,YouTube 没有采用原始的用户日志,而是对每个用户提取等数量的训练样本,这是为什么?


原文的解答是这样的,


Another key insight that improved live metrics was to generate a xed number of training examples per user, e ectively weighting our users equally in the loss function. This prevented a small cohort of highly active users from dominating the loss.


理由很简单,这是为了减少高度活跃用户对于 loss 的过度影响。


5、YouTube 为什么不采取类似 RNN 的 Sequence model,而是完全摒弃了用户观看历史的时序特征,把用户最近的浏览历史等同看待,这不会损失有效信息吗?


这个原因应该是 YouTube 工程师的“经验之谈”,如果过多考虑时序的影响,用户的推荐结果将过多受最近观看或搜索的一个视频的影响。YouTube 给出一个例子,如果用户刚搜索过“tayer swift”,你就把用户主页的推荐结果大部分变成 tayer swift 有关的视频,这其实是非常差的体验。为了综合考虑之前多次搜索和观看的信息,YouTube 丢掉了时序信息,讲用户近期的历史纪录等同看待。


但 RNN 到底适不适合 next watch 这一场景,其实还有待商榷,@严林 大神在上篇文章的评论中已经提到,youtube 已经上线了以 RNN 为基础的推荐模型, 参考论文如下: https://static.googleusercontent.com/media/research.google.com/en//pubs/archive/46488.pdf


看来时隔两年,YouTube 对于时序信息以及 RNN 模型有了更多的掌握和利用。


6、在处理测试集的时候,YouTube 为什么不采用经典的随机留一法(random holdout),而是一定要把用户最近的一次观看行为作为测试集?


这个问题比较好回答,只留最后一次观看行为做测试集主要是为了避免引入 future information,产生与事实不符的数据穿越。


7、在确定优化目标的时候,YouTube 为什么不采用经典的 CTR,或者播放率(Play Rate),而是采用了每次曝光预期播放时间(expected watch time per impression)作为优化目标?


这个问题从模型角度出发,是因为 watch time 更能反应用户的真实兴趣,从商业模型角度出发,因为 watch time 越长,YouTube 获得的广告收益越多。而且增加用户的 watch time 也更符合一个视频网站的长期利益和用户粘性。


这个问题看似很小,实则非常重要,objective 的设定应该是一个算法模型的根本性问题,而且是算法模型部门跟其他部门接口性的工作,从这个角度说,YouTube 的推荐模型符合其根本的商业模型,非常好的经验。


我之前在领导一个算法小组的时候,是要花大量时间与 Business 部门沟通 Objective 的设定问题的,这是路线方针的问题,方向错了是要让组员们很多努力打水漂的,一定要慎之又慎。


8、在进行 video embedding 的时候,为什么要直接把大量长尾的 video 直接用 0 向量代替?


这又是一次工程和算法的 trade-off,把大量长尾的 video 截断掉,主要还是为了节省 online serving 中宝贵的内存资源。当然从模型角度讲,低频 video 的 embedding 的准确性不佳是另一个“截断掉也不那么可惜”的理由。


当然,之前很多同学在评论中也提到简单用 0 向量代替并不是一个非常好的选择,那么有什么其他方法,大家可以思考一下。


9、针对某些特征,比如 #previous impressions,为什么要进行开方和平方处理后,当作三个特征输入模型?


这是很简单有效的工程经验,引入了特征的非线性。从 YouTube 这篇文章的效果反馈来看,提升了其模型的离线准确度。


10、为什么 ranking model 不采用经典的 logistic regression 当作输出层,而是采用了 weighted logistic regression?


因为在第 7 问中,我们已经知道模型采用了 expected watch time per impression 作为优化目标,所以如果简单使用 LR 就无法引入正样本的 watch time 信息。因此采用 weighted LR,将 watch time 作为正样本的 weight,在线上 serving 中使用 e(Wx+b)做预测可以直接得到 expected watch time 的近似,完美。


十个问题全部答完,希望对大家有帮助。其实在上一篇文章抛出这十个问题的时候,已经有诸位大神做出了很好的回答,感谢 @做最闲的咸鱼 @严林 @吴海波。最后增加一个思考环节,大家可以讨论一下下面的问题:


1. 本论文中,用于 candidate generation 网络 serving 部分的 user embedding vector 和 video embedding vector 是怎么生成的?


2. Example age 这个 feature 的定义到底是什么?


3. 除了用 0 向量 embedding 替代长尾内容,有没有其他好的方法?


这里是 王喆的机器学习笔记 的第三篇文章,水平有限,不对之处欢迎吐槽、拍砖。下一篇文章我们一起讨论一下 Airbnb 的搜索推荐系统和 embedding 方法,如果大家有兴趣欢迎点赞鼓励。


公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2019-01-13 14:008126

评论

发布
暂无评论
发现更多内容

LeetCode题解:63. 不同路径 II,动态规划,JavaScript,详细注释

Lee Chen

算法 大前端 LeetCode

资本之外,区块链破圈正当时

CECBC

区块链

OAuth:每次授权暗中保护你的那个“MAN”

华为云开发者联盟

大前端 协议 权限 Oauth web服务

话题讨论 | 今年,你回家过年了吗?

xcbeyond

话题讨论 春节 就地过年

Java架构大牛之路必备“微服务架构笔记”

Java架构之路

Java 程序员 架构 面试 编程语言

诊所数字化:诊所医护人员绩效指标评估方式

boshi

绩效 数字化转型 医疗 七日更

腾讯云大神用这份“redis深度笔记”把Redis入门到精通全部精髓全部展现出来了

redis 架构 计算机

真牛皮!2021最新Android大厂面试真题大全,BAT大厂面试总结

欢喜学安卓

android 程序员 面试 移动开发

01 | Mysql基础架构

zach

MySQL

百度Hydra工具在移动端UI兼容性测试上的高效应用

百度Geek说

测试 UI

程序员成长第九篇:真实项目中的注意事项

石云升

程序员 项目实战 2月春节不断更

区块链难在落地,亟需补人才缺口迎爬升期

CECBC

区块链

十四五期间我国区块链技术趋势特征分析

CECBC

区块链 大数据

元旦立下的Flag,春节后该如何实现?

脑极体

探究Python源码,终于弄懂了字符串驻留技术

华为云开发者联盟

Python 字符串 Python解释器 字符串驻留 字符

5.state更新流程(setState里到底发生了什么)

全栈潇晨

React React Hooks react源码

6.render阶段(厉害了,我有创建Fiber的技能)

全栈潇晨

React React Hooks react源码

电信的标准化组织

Geek_古藤模根

标准化 电信

如何提升网页核心指标

Vincent

让虞书欣、李诞拍到停不下来!AR+AI双引擎的互动小游戏,如何打开IP新玩法?

爱奇艺技术产品团队

进程管理:kill命令之-9与-15

程序员架构进阶

Java Linux 进程 七日更 2月春节不断更

我用 go-zero 一周实现了一个中台系统,已开源!

万俊峰Kevin

微服务 go-zero Go 语言

28天写作再次开启,你准备好来挑战了吗?

TGO鲲鹏会

28天写作 热门活动

offer稳了!四面阿里面经分享,定级P6之路。

Java架构之路

Java 程序员 架构 面试 编程语言

阿里面试这样问:redis 为什么把简单的字符串设计成 SDS?

程序员小富

Java redis 面试

【LeetCode】K 连续位的最小翻转次数Java题解

Albert

算法 LeetCode 2月春节不断更

技术需求文档,应当这么写!

穿甲兵

需求 文档

大厂必问算法!查漏补缺LeetCode必考“1024道技术点面试题”

Java架构之路

Java 程序员 架构 面试 编程语言

温故而知新!腾讯Android开发面试记录,薪资翻倍

欢喜学安卓

android 程序员 面试 移动开发

翻译:《实用的Python编程》01_06_Files

codists

人工智能 后端 python 爬虫 数据结构与算法 文件操作

如何读懂CNN、BBC、经济学人、卫报、纽约时报?看完这本经典即可事半功倍!

wbliu85

学习 英语

YouTube深度学习推荐系统的十大工程问题
_AI&大模型_王喆_InfoQ精选文章