阿里、蚂蚁、晟腾、中科加禾精彩分享 AI 基础设施洞见,现购票可享受 9 折优惠 |AICon 了解详情
写点什么

谷歌、阿里等 10 大深度学习 CTR 模型最全演化图谱

  • 2019-04-19
  • 本文字数:3941 字

    阅读完需:约 13 分钟

谷歌、阿里等10大深度学习CTR模型最全演化图谱

本文是王喆在 AI 前线 开设的原创技术专栏“深度学习 CTR 预估模型实践”第四篇文章(以下“深度学习 CTR 预估模型实践”简称“深度 CTR 模型”)。回顾王喆老师过往精彩文章:《重读 Youtube 深度学习推荐系统论文,字字珠玑,惊为神文》《YouTube 深度学习推荐系统的十大工程问题》


随着微软的 Deep Crossing、Google 的 Wide&Deep 以及 FNN、PNN 等一大批优秀的深度学习 CTR 预估模型在 2016 年被提出,计算广告和推荐系统领域全面进入了深度学习时代,时至今日,深度学习 CTR 模型已经成为广告和推荐领域毫无疑问的主流。在之前的专栏文章《前深度学习时代CTR预估模型的演化之路》中,我们与大家一起探讨了传统 CTR 模型的结构特点以及演化关系。在进入深度学习时代之后,CTR 模型不仅在表达能力、模型效果上有了质的提升,而且大量借鉴并融合了深度学习在图像、语音以及自然语言处理方向的成果,在模型结构上进行了快速的演化。


本文总结了广告、推荐领域最为流行的 10 个深度学习 CTR 模型的结构特点,构建了它们之间的演化图谱。选择模型的标准尽量遵循下面三个原则:


1、模型的在业界影响力较大的;


2、已经被 Google、微软、阿里等知名互联网公司成功应用的;


3、工程导向的,而不是仅用实验数据验证或学术创新用的。


下面首先列出这张深度学习 CTR 模型的演化图谱,再对其进行逐一介绍:


一、微软 Deep Crossing(2016 年)——深度学习 CTR 模型的 base model

图2 微软Deep Crossing模型架构图


微软于 2016 年提出的 Deep Crossing 可以说是深度学习 CTR 模型的最典型和基础性的模型。如图 2 的模型结构图所示,它涵盖了深度 CTR 模型最典型的要素,即通过加入 embedding 层将稀疏特征转化为低维稠密特征,用 stacking layer,或者叫做 concat layer 将分段的特征向量连接起来,再通过多层神经网络完成特征的组合、转换,最终用 scoring layer 完成 CTR 的计算。


跟经典 DNN 有所不同的是,Deep crossing 采用的 multilayer perceptron 是由残差网络组成的,这无疑得益于 MSRA 著名研究员何恺明提出的著名的 152 层 ResNet。

二、FNN(2016 年)——用 FM 的隐向量完成 Embedding 初始化

图3 FNN模型架构图


FNN 相比 Deep Crossing 的创新在于使用 FM 的隐层向量作为 user 和 item 的 Embedding,从而避免了完全从随机状态训练 Embedding。由于 id 类特征大量采用 one-hot 的编码方式,导致其维度极大,向量极稀疏,所以 Embedding 层与输入层的连接极多,梯度下降的效率很低,这大大增加了模型的训练时间和 Embedding 的不稳定性,使用 pre train 的方法完成 Embedding 层的训练,无疑是降低深度学习模型复杂度和训练不稳定性的有效工程经验。

三、PNN (2016 年)——丰富特征交叉的方式

图4 PNN模型架构图


PNN 的全称是 Product-based Neural Network,PNN 的关键在于在 embedding 层和全连接层之间加入了 Product layer。传统的 DNN 是直接通过多层全连接层完成特征的交叉和组合的,但这样的方式缺乏一定的“针对性”。首先全连接层并没有针对不同特征域之间进行交叉;其次,全连接层的操作也并不是直接针对特征交叉设计的。


但在实际问题中,特征交叉的重要性不言而喻,比如年龄与性别的交叉是非常重要的分组特征,包含了大量高价值的信息,我们急需深度学习网络能够有针对性的结构能够表征这些信息。因此 PNN 通过加入 Product layer 完成了针对性的特征交叉,其 product 操作在不同特征域之间进行特征组合。并定义了 inner product,outer product 等多种 product 的操作捕捉不同的交叉信息,增强模型表征不同数据模式的能力 。

四、Google Wide&Deep(2016 年)——记忆能力和泛化能力的综合权衡

图5 Google Wide&Deep模型架构图


Google Wide&Deep 模型的主要思路正如其名,把单输入层的 Wide 部分和经过多层感知机的 Deep 部分连接起来,一起输入最终的输出层。其中 Wide 部分的主要作用是让模型具有记忆性(Memorization),单层的 Wide 部分善于处理大量稀疏的 id 类特征,便于让模型直接“记住”用户的大量历史信息;Deep 部分的主要作用是让模型具有“泛化性”(Generalization),利用 DNN 表达能力强的特点,挖掘藏在特征后面的数据模式。最终利用 LR 输出层将 Wide 部分和 Deep 部分组合起来,形成统一的模型。


Wide&Deep 对之后模型的影响在于——大量深度学习模型采用了两部分甚至多部分组合的形式,利用不同网络结构挖掘不同的信息后进行组合,充分利用和结合了不同网络结构的特点。

五、华为 DeepFM (2017 年)——用 FM 代替 Wide 部分

图6 华为DeepFM模型架构图


在 Wide&Deep 之后,诸多模型延续了双网络组合的结构,DeepFM 就是其中之一。DeepFM 对 Wide&Deep 的改进之处在于,它用 FM 替换掉了原来的 Wide 部分,加强了浅层网络部分特征组合的能力。事实上,由于 FM 本身就是由一阶部分和二阶部分组成的,DeepFM 相当于同时组合了原 Wide 部分+二阶特征交叉部分+Deep 部分三种结构,无疑进一步增强了模型的表达能力。

六、Google Deep&Cross(2017 年)——使用 Cross 网络代替 Wide 部分

图7 Google Deep Cross Network模型架构图


Google 2017 年发表的 Deep&Cross Network(DCN)同样是对 Wide&Deep 的进一步改进,主要的思路使用 Cross 网络替代了原来的 Wide 部分。其中设计 Cross 网络的基本动机是为了增加特征之间的交互力度,使用多层 cross layer 对输入向量进行特征交叉。单层 cross layer 的基本操作是将 cross layer 的输入向量 xl 与原始的输入向量 x0 进行交叉,并加入 bias 向量和原始 xl 输入向量。DCN 本质上还是对 Wide&Deep Wide 部分表达能力不足的问题进行改进,与 DeepFM 的思路非常类似。

七、NFM(2017 年)——对 Deep 部分的改进

图8 NFM的深度网络部分模型架构图


相对于 DeepFM 和 DCN 对于 Wide&Deep Wide 部分的改进,NFM 可以看作是对 Deep 部分的改进。NFM 的全称是 Neural Factorization Machines,如果我们从深度学习网络架构的角度看待 FM,FM 也可以看作是由单层 LR 与二阶特征交叉组成的 Wide&Deep 的架构,与经典 W&D 的不同之处仅在于 Deep 部分变成了二阶隐向量相乘的形式。再进一步,NFM 从修改 FM 二阶部分的角度出发,用一个带 Bi-interaction Pooling 层的 DNN 替换了 FM 的特征交叉部分,形成了独特的 Wide&Deep 架构。其中 Bi-interaction Pooling 可以看作是不同特征 embedding 的 element-wise product 的形式。这也是 NFM 相比 Google Wide&Deep 的创新之处。

八、AFM(2017 年)——引入 Attention 机制的 FM

图9 AFM模型架构图


AFM 的全称是 Attentional Factorization Machines。通过前面的介绍,我们很清楚地知道,FM 其实就是经典的 Wide&Deep 结构,其中 Wide 部分是 FM 的一阶部分,Deep 部分是 FM 的二阶部分,而 AFM 顾名思义,就是引入 Attention 机制的 FM。具体到模型结构上,AFM 其实是对 FM 的二阶部分的每个交叉特征赋予了权重,这个权重控制了交叉特征对最后结果的影响,也就非常类似于 NLP 领域的注意力机制(Attention Mechanism)。为了训练 Attention 权重,AFM 加入了 Attention Net,利用 Attention Net 训练好 Attention 权重后,再反向作用于 FM 二阶交叉特征之上,使 FM 获得根据样本特点调整特征权重的能力。

九、阿里 DIN(2018 年)——阿里加入 Attention 机制的深度学习网络

图10 阿里DIN模型与Base模型的架构图


AFM 在 FM 中加入了 Attention 机制,2018 年,阿里巴巴正式提出了融合了 Attention 机制的深度学习模型——Deep Interest Network。与 AFM 将 Attention 与 FM 结合不同的是,DIN 将 Attention 机制作用于深度神经网络,在模型的 embedding layer 和 concatenate layer 之间加入了 attention unit,使模型能够根据候选商品的不同,调整不同特征的权重。

十、阿里 DIEN(2018 年)——DIN 的“进化”

图11 阿里DIEN模型架构图


DIEN 的全称为 Deep Interest Evolution Network,它不仅是对 DIN 的进一步“进化”,更重要的是 DIEN 通过引入序列模型 AUGRU 模拟了用户兴趣进化的过程。具体来讲,模型的主要特点是在 Embedding layer 和 Concatenate layer 之间加入了生成兴趣的 Interest Extractor Layer 和模拟兴趣演化的 Interest Evolving layer。其中 Interest Extractor Layer 使用了 DIN 的结构抽取了每一个时间片内用户的兴趣,Interest Evolving layer 则利用序列模型 AUGRU 的结构将不同时间的用户兴趣串联起来,形成兴趣进化的链条。最终再把当前时刻的“兴趣向量”输入上层的多层全连接网络,与其他特征一起进行最终的 CTR 预估。

总结:CTR 模型的深度学习时代


文章的最后,我再次强调这张深度学习 CTR 模型演化图,可以毫不夸张的说,这张演化图包括了近年来所有主流的深度学习 CTR 模型的结构特点以及它们之间的演化关系。希望能够帮助推荐、广告、搜索领域的算法工程师们建立起完整的知识体系,能够驾轻就熟的针对业务特点应用并比较不同模型的效果,从而用最适合当前数据模式的模型驱动公司业务。


就在我们熟悉这些已有模型的时候,深度学习 CTR 模型的发展从没有停下它的脚步。从阿里的多模态、多目标的深度学习模型,到 YouTube 基于 RNN 等序列模型的推荐系统,再到 Airbnb 使用 Embedding 技术构建的搜索推荐模型,深度学习的应用不仅越来越广泛,而且得到了越来越快的进化。在今后的专栏文章中,我们不仅会更深入的介绍深度学习 CTR 模型的知识,而且会更加关注深度学习 CTR 模型的应用与落地,期待与大家一同学习。


《深度学习 CTR 预估模型实践》专栏内容回顾:


  1. 深度学习 CTR 预估模型凭什么成为互联网增长的关键?

  2. 前深度学习时代CTR预估模型的演化之路——从LR到FFM

  3. 盘点前深度学习时代阿里、谷歌、Facebook的CTR预估模型

作者介绍

王喆,毕业于清华大学计算机系,现在美国最大的 smartTV 公司 Roku 任 senior machine learning engineer,曾任 hulu senior research SDE,7 年计算广告、推荐系统领域业界经验,相关专利 3 项,论文 7 篇,《机器学习实践指南》、《百面机器学习》作者之一。知乎专栏/微信公众号:王喆的机器学习笔记。



公众号推荐:

2024 年 1 月,InfoQ 研究中心重磅发布《大语言模型综合能力测评报告 2024》,揭示了 10 个大模型在语义理解、文学创作、知识问答等领域的卓越表现。ChatGPT-4、文心一言等领先模型在编程、逻辑推理等方面展现出惊人的进步,预示着大模型将在 2024 年迎来更广泛的应用和创新。关注公众号「AI 前线」,回复「大模型报告」免费获取电子版研究报告。

AI 前线公众号
2019-04-19 08:0512851

评论

发布
暂无评论
发现更多内容

【docker 总结】第二篇 - Image 镜像

Brave

Docker 12月日更

Vue 团队公开快如闪电的全新脚手架工具 create-vue,未来将替代 Vue-CLI,才300余行代码,学它!

若川

JavaScript vue.js 前端 签约计划第二季

尤雨溪几年前开发的“玩具 vite”,才100多行代码,却十分有助于理解 vite 原理

若川

JavaScript vue.js 前端 签约计划第二季

信息

Nydia

Scrapy Spider中间件,你学会了吗?本篇博客有一案例

梦想橡皮擦

12月日更

何为异步流

喵叔

28天写作 12月日更

Structuring: 魔法诞生之法

mtfelix

28天写作

[Pulsar] DLQ原理

Zike Yang

Apache Pulsar 12月日更

让容器跑得更快:CPU Burst 技术实践

阿里巴巴云原生

阿里云 容器 云原生 cpu CPU调度

react源码解析12.状态更新流程

buchila11

React

语音识别之降噪技术

攻城先森

音视频 语音识别 智能降噪 签约计划第二季

go语言技术探究--合集

en

内容合集 签约计划第二季

手把手教你提交Jar包到Maven公共仓库 | 萌新写开源02

Zhendong

Java maven

手把手带你漫游语音识别世界|入门到实战

攻城先森

音视频 语音识别 内容合集 签约计划第二季

netty系列之:小白福利!手把手教你做一个简单的代理服务器

程序那些事

Java Netty 代理 程序那些事 12月日更

初学者也能看懂的 Vue3 源码中那些实用的基础工具函数

若川

JavaScript vue.js 签约计划第二季

Prometheus Exporter (二十六)Statsd Exporter

耳东@Erdong

Prometheus 28天写作 exporter 12月日更 StatsD

效能研发:做一款GraphQL代码生成器

梁龙先森

签约计划第二季

前端工程建设那些事

梁龙先森

内容合集 签约计划第二季

Game On Serverless:SAE 助力广州小迈提升微服务研发效能

阿里巴巴云原生

阿里云 Serverless 云原生 SAE 合作

阿里Java编码手册实战详解-命名规范篇

JavaEdge

12月日更

Vue 3.2 发布了,那尤雨溪是怎么发布 Vue.js 的?

若川

JavaScript vue.js 前端 签约计划第二季

尤雨溪推荐神器 ni ,能替代 npm/yarn/pnpm ?简单好用!源码揭秘!

若川

JavaScript vue.js 前端 签约计划第二季

Kafka 在消息队列领域为何如此流行?

老周聊架构

kafka 内容合集 签约计划第二季

深入理解Flutter相机插件【Flutter专题22】

坚果

flutter 28天写作 签约计划第二季 12月日更

前端开发:正确安装nvm的方法(非常详细)

三掌柜

28天写作 28 12月日更 12月

react源码解析11.生命周期调用顺序

buchila11

React

javascript中获取 DOM 元素的几种方式

你好bk

JavaScript 前端 大前端 DOM BOM

日常的情绪控制

搬砖的周狮傅

情绪控制

面试官:useLayoutEffect和useEffect的区别

全栈潇晨

React

面试官:react中的setState是同步的还是异步的

全栈潇晨

React

谷歌、阿里等10大深度学习CTR模型最全演化图谱_AI&大模型_王喆_InfoQ精选文章