发布在即!企业 AIGC 应用程度测评,3 步定制专属评估报告。抢首批测评权益>>> 了解详情
写点什么

深度学习在搜狗无线搜索广告中的应用

  • 2016-08-07
  • 本文字数:4827 字

    阅读完需:约 16 分钟

搜索引擎广告是用户获取网络信息的渠道之一,同时也是互联网收入的来源之一,通过传统的浅层模型对搜索广告进行预估排序已不能满足市场需求。近年来,深度学习在很多领域得到广泛应用并已取得较好的成果,本次演讲就是分享深度学习如何有效的运用在搜狗无线搜索广告中。

本次分享主要介绍深度学习在搜狗无线搜索广告中有哪些应用场景,以及分享了我们的一些成果,重点讲解了如何实现基于多模型融合的 CTR 预估,以及模型效果如何评估,最后和大家探讨 DL、CTR 预估的特点及未来的一些方向。

一、深度学习在搜索广告中有哪些应用场景

比较典型的深度学习应用场景包括语音识别、人脸识别、博奕等,也可以应用于搜索广告中。首先介绍下搜索广告的基本架构,如下图:

  1. 首先用户查询。
  2. 查询词给 Bidding Server 处理,Bidding Server 主要负责业务逻辑。例如某种广告在什么情况下不能展现,或这个客户同一个广告在什么时间段什么地域展现。
  3. Bidding Server 请求 Retriever Server,Retriever Server 主要负责召回,广告库很庞大(搜狗的广告库大概在几十亿这个规模), 因为数据量非常大,所以需要根据一些算法从中找出和当前查询词最相关的一批广告, 这就是 Retriever Server 做的事情。
  4. Retriever Server 处理完后,会把这些比较好的广告回传给 Quality Server,Quality Server 主要负责点击率预估和排序,此时的候选集数量相对较少,Quality Server 会采用复杂的算法针对每条广告预估它当前场景的点击率,并据此排序。
  5. Quality Server 将排序结果的 top 回传给 Retriever Server。
  6. Retriever Server 回传给 Bidding Server。
  7. Bidding Server 做封装最后展示给用户。

以上过程中可应用到深度学习的场景如下:

二、基于多模型融合的 CTR 预估2.1 CTR 预估流程

CTR 预估的流程图如下:

  1. Data 是原始数据,包括点击及查询日志,从这些原始数据里抽出一些特征。
  2. Feature 包括查询特征、广告特征、匹配特征。查询特征是和查询词相关的特征,查询发生的地域、时间等。广告特征是指广告本身的信息,例如:来自哪个客户,是哪个行业的,它的关键词是什么,它的标题、描述、网址是什么等各种信息。匹配特征是指查询词和广告的匹配关系。
  3. 然后会进行模型的训练,包括线性和非线性。
  4. 模型在线下训练完后会到线上, 线上 Server 会实时做特征抽取并预估。例如:线上实时收到查询请求后,就会知道查询词是什么。前面讲的 Retriever server,它会召回一系列广告,并抽出相关信息,比如广告的标题、关键词、描述等信息,有了这些信息后会利用加载的模型给出预估 CTR,最终会进行 Rank 排序,从而筛选出满足指定条件的一些广告进行展示。

2.2 特征设计 **** 离散特征

离散特征是指把东西分散出来表示,比如 OneHot,非常直观,例如用户当天所处的时间段,他和最终点击率有关系,那么我把一天 24 小时分成 24 个点,他在哪个小时就把哪个点点亮置 1,这个特征就设计完了。它的刻画比较细致,设计比较简单,但他的特征非常稀疏,我们线上特征空间非常大,有上十亿,但任何一个请求场景到来,它真正有效的特征大概只有几百个,绝大部分都是空的。因为特征量非常大,不能设计太复杂的模型,否则无法用于线上。

离散特征总结:容易设计,刻画细致,特征稀疏,特征量巨大,模型复杂度受限。

连续特征

还是以时间举例,离散特征会把它变成 24 个点,连续特征就会变成一个值,比如 1、2、3、4、5 一直到 24,它只会占一个位置。需要仔细设计,很难找到一个直接的方法来描述查询词中包括哪些东西。它是定长的,所以一个请求场景到来,它有多少特征是固定的。不像离散特征是不定长,查询词不一样,有的是两个特征或三个特征,对于特征点可能有两个或三个,这对于我们后面的工作也有一定的影响。连续特征比较稠密,每个位置都会有值,它特征量相对较小,如果用连续特征设计的话可能需要几百维就可以,因此可以使用多种模型来训练。

连续特征总结:需要仔细设计,定长,特征稠密,特征量相对较小,可以使用多种模型训练。

2.3 模型类别

线性

优点:简单、处理特征量大、稳定性好,缺点:不能学习特征间的交叉关系,需要自己去设计。比较典型的如 Logistic Regression,有开源的工具包,部署简单且效果不错。

非线性

优点:能够学习特征间非线性关系,缺点:模型复杂、计算耗时。

比如 LR 模型就算特征再多,它只是查表加在一起做指数运算就出来了,像 DNN、GBDT 就会非常复杂,导致计算过程比较慢。

总结:Logistic Regression 即能处理连续值又能处理离散值。DNN 几乎不能处理离散值,除非做特殊的预处理。

2.4 模型融合

前面讲过每个模型都有自己的特点:Logistic Regression 处理特征量大,大概在 2010 年前后开始大量应用于业界,很难有模型能完全超越它;DNN 可以挖掘原来没有的东西。我们就想这两个模型能不能将优点进行融合,扬长避短,从而得到更好的结果。

第一种方案:CTR Bagging

  • 有多个模型,将多个模型的输出 CTR 加权平均。
  • 实现方法简单,模型之间不产生耦合。
  • 可调参数有限,只能调 Bagging 权重的参数,不能调其他东西,所以改进空间相对较小。

第二种方案:模型融合

  • 任一模型的输出作为另一模型的特征输入, 彼此进行交叉。
  • 实现方法复杂,模型之间有依赖关系,因依赖关系复杂,风险也比较高。
  • 好处是实验方案较多,改进空间较大。

我们选了后一种方案,因为单纯 CTR Bagging 太过简单粗暴了。

2.5 模型融合的工程实现

目标

  • 可支持多个不同模型的加载和计算
  • 可支持模型之间的交叉和 CTR 的 bagging
  • 可通过配置项随时调整模型融合方案
  • 避免不必要的重复操作,减少时间复杂度

解决方法 (引入 ModelFeature 的概念)

  • 模型本身也看做一个抽象特征
  • 模型特征依赖于其他特征,通过计算得到新的特征
  • 模型特征输出可作为 CTR,也可作为特征为其他模型使用
  • 限定 ModelFeature 的计算顺序,即可实现 bagging 模型交叉等功能

2.6 模型融合模型融合流程图如下:

  1. 首先线下,将 PV、Click、Session 做成一个 sample。
  2. 然后把 sample 做成特征,包括 OneHot、CTR。
  3. 分别将 OneHot、CTR 传送到各自模块的 train,就会得到相应的模型。
  4. 线上,Bidding Server 会经过 Retriever Server 召回广告。
  5. 然后传给 Quality Server 进行计算,它是通过 One Case 存储和这个查询相关的所有信息。
  6. Quality Server 会把 One Case 里的信息转换成 One Hot 特征。
  7. 然后将结果存到特征池,特征池包含所有特征。
  8. LR 模型从特征池里读取数据,而后计算出 CTR,还包括其他增量信息。
  9. 将这些回送到特征池。
  10. 此外 DNN 模型也会读取特征池里的信息,并将最终计算结果回传给特征池。
  11. CTR 可以从特征池里直接取出,然后进行后续的操作。

我们去年将这套框架部署到线上,并持续进行改进,在线上运行了半年多,基本能适用于业务的发展:曾经上线了 LR 和 DNN 的交叉,还上线了 LR 和 GBDT 的融合。GBDT 会将过程信息回传给 LR, 由 LR 完成最终输出。此架构经过生产系统的检验,运转正常。

2.7 模型效果评估

期间我们会做很多实验,比如 DNN 训练比较耗时,线上也比较耗时,因此我们会进行多种优化和评估。那么就涉及到一个问题,如何评估一个模型的好坏?线下指标主要采用 AUC, 定义如下图所示:

我们来分析下这个图,选定一系列阈值将对应一系列点对,形成一条曲线,曲线下方的面积总和就是 AUC 的值:红线就是纯随机的结果,对应的 AUC 是 0.5;模型越好,曲线离左上角就越近。这个值在我们模型评估里用得非常多,该值考察的是模型预估的排序能力,它会把模型预估排序结果和实际结果进行比对运算。该值很难优化,一般而言,AUC 高,模型的排序能力就强。

线下指标 AUC 很重要,但我们发现单纯靠这指标也是有问题的,不一定是我们的线上模型出了问题,可能是其他的问题。做广告预估,AUC 是线下指标,除此之外,最核心的指标是上线收益,有时这两个指标会有不一致的地方,我们也尝试去定位,可能的原因主要有:

  1. Survivorship bias 问题:线下训练时所有的数据都是线上模型筛选过的比较好的样本,是我们展示过的比较好的广告,一次查询三条左右,但实际上到了线上之后,面临的场景完全不一样。前面讲过 RS 筛选出最多近千条广告,这些广告都会让模型去评判它的 CTR 大概是多少,但实际上训练的样本只有最终的三条,对于特别差的广告模型其实是没有经验的。如果一个模型只适用于对比较好的广告进行排序,就会在线上表现很差,因为从来没有见过那些特别差的广告是什么样的,就会做误判。
  2. 特征覆盖率的问题,例如:我们有个特征是和这个广告自身 ID 相关的,该信息在在线下都能拿到,但真正到了线上之后,因为广告库非常大,很多广告是未展示过的,相关的信息可能会缺失,原有的特征就会失效,线上该特征的覆盖率比较低,最终将不会发挥作用。

2.8、并行化训练做 DNN 会遇到各种各样的问题,尤其是数据量的问题。大家都知道模型依赖的数据量越大效果越好,因为能知道更多的信息,从而提升模型稳定性,所以我们就会涉及到并行化训练的事情。

加大数据量,提升模型稳定性

我们做搜索广告有一个重要指标:覆盖率,是指此情况下是否需要显示广告。覆盖率高了,用户可能会不满意,而且多出来那些广告多半不太好;但如果覆盖率很低,又等于没赚到钱。这个指标很重要,所以我们希望融合模型上到线上后覆盖率是可预测的。

我们发现这个融合模型会有自己的特点,上到线上之后会有些波动。例如:今天我们刚把模型覆盖率调好了,但第二天它又变了。然后我们分析,可能是因为数据量的问题,需要在一个更大的数据集上训练来提升模型的稳定性。

加大数据量,提升模型收益

其实就是见多识广的意思,模型见得多,碰到的情况多,在遇到新问题的时候,就知道用什么方法去解决它,就能更合理的预估结果。

我们调研了一些方案,如下:

  • Caffe只支持单机单卡
  • TensorFlow不支持较大 BatchSize
  • MxNet支持多机多卡,底层 C++, 上层 Python 接口

MxNet 我们用得还不错,基本能达到预期的效果。

三、若干思考

3.1 Deep Learing 的强项

输入不规整,而结果确定。

例如:图像理解,这个图像到底是什么,人很难描述出到底是哪些指标表明它是一个人脸还是猫或狗。但结果非常确定,任何人看一眼就知道图片是什么,没有争议。

具体到我们的广告场景,广告特征都是有具体的含义。例如:时间信息,说是几点就是几点,客户的关键词信息,它写的是什么就是什么,文本匹配度是多少,是高还是低,都有确定的含义。

3.2 CTR 预估

输入含义明确,场景相关,结果以用户为导向。

例如:一个查询词,出现一条广告,大家来评判它是好是坏,其实它的结果是因人而异的,有人觉得结果很好,而有人却觉得一般,它没有一个客观度量的标准。所以我们认为 CTR 预估跟传统的 DL 应用场景不太一样。

我们 DNN 用到线上后,收益大概提升了百分之五左右,但相对 Deep Learing 在其他场景的应用,这个提升还是少了些。语音输入法很早就有人做,因为准确率的问题一直没有太大应用,但 Deep Learing 出来后,比如讯飞及我们搜狗的语音输入法,用起来很不错,准确率相比之前提高了一大截。

3.3 未来方向

Deep Learing 既然有这些特性,我们会根据特定的业务场景进行应用,比如在某些情况下把它用上去效果会很好,我们还想做一些模型融合的事情。

我们做实验发现把 DNN 和 LR 融合后,最好的结果相比 LR 本身,AUC 大概高不到一个百分点。我们也尝试过直接把 DNN 模型用到线上去,效果很差,就算在线下跟 LR 可比,但到线上后会有一系列问题,不管是从覆盖率还是从最终收益都会有较大的差异,这是我们在搜狗无线搜索数据上得出的实验结论,大家在各自的业务场景下可能有所区别。

如果你们没有足够经验去手工做各种交叉特征的设计,直接用 DNN 可能会有好的成果。如果在非常成熟的模型上做,可能需要考虑下,收益预期不要太高。

本文来自搜狗资深研究员舒鹏在携程技术中心主办的深度学习 Meetup 中的主题演讲。演讲整理:余清兰。


感谢杜小芳对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ @丁晓昀),微信(微信号: InfoQChina )关注我们。

公众号推荐:

2024 年 1 月,InfoQ 研究中心重磅发布《大语言模型综合能力测评报告 2024》,揭示了 10 个大模型在语义理解、文学创作、知识问答等领域的卓越表现。ChatGPT-4、文心一言等领先模型在编程、逻辑推理等方面展现出惊人的进步,预示着大模型将在 2024 年迎来更广泛的应用和创新。关注公众号「AI 前线」,回复「大模型报告」免费获取电子版研究报告。

AI 前线公众号
2016-08-07 19:002942

评论

发布
暂无评论
发现更多内容

感恩,改变世界的开发者们!

京东科技开发者

开发者 程序人生

分享一份大佬的MySQL数据库设计规范,值得收藏

小Q

学习 架构 面试 JVM 多线程

GitHub 标星 1.3k+,一款超赞的用于字符串处理的 Java 8 库,附带源码分析

沉默王二

Java GitHub 字符串

监控之美——Prometheus云原生监控

华章IT

运维 云原生 监控 Prometheus

广电总局严打劣迹主播:净化行业环境迫在眉睫

石头IT视角

最详细的Linux TCP/IP 协议栈源码分析

linux大本营

Linux 后台开发 网络编程 C/C++ TCP/IP

【领福利啦】广受欢迎的人工智能实战课程+“智能音箱”教程免费领!

小冬

人工智能 技术 福利 项目实战 智能音箱

前嗅教你大数据:常见的网站反爬策略与解决方案

前嗅大数据

大数据 数据采集 代理IP 网站反爬 反爬策略

高德最佳实践:Serverless 规模化落地有哪些价值?

阿里巴巴云原生

阿里云 Serverless 云原生

一文带你了解两种Transformer文字识别方法

华为云开发者联盟

人工智能 AI 文字识别

《迅雷链精品课》第八课:迅雷链多链结构

迅雷链

区块链

如何保障企业数据资产的全生命周期安全?看这篇就够了

华为云开发者联盟

数据 数据资产 数据安全

看了 5 种分布式事务方案,我司最终选择了 Seata,真香!

程序员小富

Java 分布式事务 seata

红外遥控接收发射原理及ESP8266实现

IoT云工坊

人工智能 物联网 esp8266 红外遥控 pwm

LeetCode题解:17. 电话号码的字母组合,队列,JavaScript,详细注释

Lee Chen

算法 大前端 LeetCode

没想到我费劲心力学的kafka,还不如阿里大佬整理的这份学习手册,真的是差距啊

小Q

Java kafka 学习 架构 面试

Week1 命题作业

J

极客大学架构师训练营

CPU虚拟化系列文章1——x86架构CPU虚拟化

华章IT

云计算 Linux cpu 操作系统 虚拟化

技术实践丨基于MindSpore框架Yolov3-darknet模型的篮球动作检测体验

华为云开发者联盟

AI 华为云 modelarts

索引为什么能提供查询性能...

小林coding

MySQL 索引 数据结构与算法 B+树

通过python基于netconf协议获取网络中网元的配置数据,助力企业网络控制自动化轻松实现!

华为云开发者联盟

通信 企业 网络自动化

Linux 服务器开发学习路线总结(配图 c/c++ )后台开发、Golang后台开发、后端技术栈

Linux服务器开发

Linux 后台开发 后端 Linux服务器 Go 语言

基于 GraphQL 的信息聚合网关的实现与展望

QiLab

高并发系统设计 graphql

甲方日常 58

句子

工作 随笔杂谈 日常

继linux命令之后,我又给你们整理了网络命令归纳,快给我来收藏

北游学Java

Linux 网络协议 网络 网络层

谈谈持续集成、持续交付和持续部署三者究竟是什么,有何联系和区别呢!

ShenDu_Linux

Linux 持续集成 架构师 持续交付 持续部署

支付宝阿牛整合Netty+Redis+ZooKeeper「终极版」高并发手册

Java架构追梦

Java redis zookeeper 面试 Netty

11.11数据可视化大屏设计揭秘

京东科技开发者

大数据 AI 数据分析 数据可视化 交互设计

接口测试和性能测试的区别

测试人生路

软件测试 性能测试 接口测试

收藏 | 阿里程序员常用的 15 款开发者工具(2020 版)

阿里巴巴云原生

阿里云 程序员 开发者 云原生 Java 25 周年

秋招offer收割机——后台服务器开发方向(专业学习路线图总结)

程序员小灰

c++ Linux 后台开发 架构师 服务器端开发

深度学习在搜狗无线搜索广告中的应用_语言 & 开发_舒鹏_InfoQ精选文章