NVIDIA 初创加速计划,免费加速您的创业启动 了解详情
写点什么

Facebook 面向个性化推荐系统的深度学习推荐模型

  • 2019-10-29
  • 本文字数:5639 字

    阅读完需:约 19 分钟

Facebook 面向个性化推荐系统的深度学习推荐模型

导读:今天分享一下 facebook 新发的深度学习推荐系统的论文:


Deep Learning Recommendation Model for Personalization and Recommendation Systems


https://arxiv.org/pdf/1906.00091.pdf


这篇文章概述了当前推荐系统实现的主要思路,提出了一种通用的模型结构 DLRM,与其他常见的 paper 不同,该篇有着浓浓的工业界风格,不仅和其他模型进行效果对比,还讲述了常见的特征如何处理,内在思维逻辑如何,在大规模的现实场景中会面临哪些问题。像大规模稀疏特征如何解决,比如用数据并行与模型并行相结合。以及 CPU 和 GPU 在实践中的性能如何,等等。


有在真实线上实践的同学应该都有过各自的思考,其实我觉得这里边的思路相关同学都是了解的,模型结构也不是壁垒,许多推荐系统问题在实践中更偏向于工程问题。像现今的开源框架都无法支持大规模推荐系统,所以各家其实都有自研的框架和配套设施,去解决海量用户 & 产品等对应的 embeddings,合适的 online training 等等问题

简介

目前个性化推荐有两个主要的方向,现在基本都投奔了深度学习的怀抱中。


1. the view of recommendation systems


早期系统雇佣专家们来对产品进行分类,用户选择他们喜好的类别并基于他们的偏好进行匹配。此领域后来演变成了协同过滤,推荐基于用户过去的行为,比如对产品的打分。Neighborhood methods 将用户和产品分组并用矩阵分解来描述用户和产品的 latent factors,获得了成功。


2. the view of predictive analytics


用统计学模型去分类或预测给定数据的事件概率。预测模型从原来的用简单的 linear and logistic regression 建模转向了用 deep networks。为了处理类别特征,一般采用 embeddings,将 one-hot 或 multi-hot vectors 转换到抽象空间的 dense respresentations。这里的抽象空间其实也就是推荐系统中的 latent factors 空间。


本文结合了上边的两种角度,模型使用 embeddings 处理稀疏特征,MLP 处理稠密特征,然后用统计技术进行显示的特征交叉。最后用另一个 MLP 来处理交差后的特征,得到事件的概率。我们将这个模型称为 RLRM,见图 1。


Pytorch & Caffe2 开源实现地址:


https://github.com/facebookresearch/dlrm


模型设计 &结构

1. Components of DLRM


① Embeddings


处理类别特征时,一般使用 embedding,实现的时候其实是搞了个 lookup table,然后去查对应类别的 embedding,所以 one-hot vector ei 就相当于是 embedding lookup ( 对位 i 是 1,其他为 0 ),embedding table



embedding 也可以被理解为是多个 items 的带权组合,mulit-hot vector


,index ik 对应 items。一个大小为 t 的 mini-batch embedding lookups 可以写为:



DLRMs 利用 embedding tables 将类别特征映射到稠密表示。但即使 embeddings 是有意义的,但我们要如何利用它们进行准确的预测呢?latent factor methods。


② Matrix Factorization


回顾推荐问题的典型场景,有一组用户 S 已经给一些产品进行了评价。我们将产品表示为 vector wi 将用户表示为 vector vj,共 n 个产品,m 个用户。( i,j ) S


The matrix factorization approach solves this problem by minimizing:



,R 其实就是 Reward matrix,W,V 是两个 embedding tables,每一行分别表示着 laten factor space 里的 user/product。


vectors 的点积代表对 rating 的预测。


③ Factoriation Machine


在分类问题中,我们会定一个预测函数:输入 x 预测 label y。我们定义 T={+1, -1},+1 代表有点击,-1 代表每点击,去预测 click-through rate。FM 在线性模型上引入了二阶交叉。 输入 x 预测 label y。我们定义 T={+1, -1},+1 代表有点击,-1 代表每点击,去预测 click-through rate。FM 在线性模型上引入了二阶交叉。




FM 明显不同于多项式核函数 SVM 的是,它将分解二阶交叉矩阵到 latent factors ( or embedding vectors ) 就像矩阵分解似的,更高效的处理了稀疏数据。通过仅用不同 embedding vectors 交叉显著减少了二阶交叉的复杂度。转为了线性计算复杂度。


④ Multilayer Perceptrons


当然,当前许多在机器学习上的成功是源于深度学习的兴起。这里边最基础的模型就是 MLP 了,一个由 FC layers 和激活函数组成的预测函数。



weight matrix ,bias for layer


这些方法被用来捕获更复杂的 interactions。比如在有足够的参数下,MLPs 有足够的深度和广度来适应数据到任意精度。各种方法的变种被广泛应用到了各种场景下,包括 cv 和 nlp。有一个特别的 case,NCF 被用来做 MLPerf benchmark 的一部分,它使用 MLP 来计算矩阵分解中 embeddings 直接的 interaction,而非 dot product。


2. DLRM Architecture


上边描述了推荐系统和预测分析使用的不同模型,现在我们将其组合起来,构建一个 state-of-the-art 的个性化模型:


  • users 和 products 可以用许多的连续特征和类别特征来描述。

  • 类别特征,用同一尺寸的 embedding vector 表示。

  • 连续特征用 MLP( bottom or dense MLP ) 转换为同样长度的稠密向量。


我们按照 FM 的方式处理稀疏特征,显示地计算不同特征的二阶交叉,可选的将其传给 MLPs。将这些 dot products 与原始的 dense features 拼接起来,传给另一个 MLP ( the top or output MLP ),最后套个 sigmoid 函数输出概率。


3. Comparison with Prior Models


许多基于深度学习的推荐模型使用类似的想法去处理稀疏特征,生成高阶项。


Wide and Deep,Deep and Cross,DeepFm,xDeepFM 都设计了特别的网络去系统性地构建 higher-order interactions。这些网络将他们特别的结构和 MLP 相加,然后传到一个 linear layer 使用 sigmoid 函数去输出一个最终概率。DLRM 模仿因子分解机,以结构化的方式 interacts embeddings,通过仅在最终 MLP 中对 embeddings 进行 dot product 产生交叉项来显着降低模型的维数。 我们认为其他网络中发现的二阶以上的高阶交互可能不值得额外的计算/内存消耗。


DLRM 与其他网络之间的关键区别在于这些网络如何处理 embedded feature vectors 及其交叉项。 特别是,DLRM ( 和 xDeepFM ) 将每个特征向量解释为表示单个类别的单个 unit,而像 Deep and Cross 这样的网络将特征向量中的每个元素视为一个新的 unit 来产生不同交叉项。因此,Deep and Cross 不仅会像 DLRM 中通过点积产生来自不同特征向量的元素之间的交叉项,还会在相同特征向量内的元素之间产生交叉项,从而产生更高的维度。

Parallelism

现在的个性化推荐系统需要大且复杂的模型去充分利用巨大的数据。DLRMs 尤其包含了非常多的参数,比其他常见的深度学习模型如 CNN,RNN,GAN 还要大几个数量级。


这导致训练过程可能要到几周甚至更多。为此,要想在实际场景中解决这些问题,就必须有效的并行化这些模型。


如上描述,DLRMs 用耦合的方式处理离散特征和连续特征。其中 Embeddings 贡献了主要的参数,每个表都要需要很多 GB 的内存,所以 DLRM 是内存容量和带宽密集型。Embeddings 的规模让数据并行变得不可行,因为他需要在每个设备上都复制 Embeddings。在很多场景下,内存的约束强制让模型的分布必须跨多个设备来满足内存容量的需求。


另一方面,MLP 的参数占用内存比较小,但是在计算量上占大头。因此,数据并行适合 MLPs,支持对不同设备上的样本进行并发处理,并且仅在累积更新时需要通信。并行 RLRM 对 embeddings 用模型并行,对 MLP 用数据并行,在缓解 embeddings 的内存瓶颈的同时让 MLPs 进行前向和反向传播。模型 & 数据并行的结合是 DLRM 这样结构和大模型尺寸的一个特别需要。这样组合的并行 Caffe2Pytorch 都不支持,其他流行的深度学习框架也如此,因此我们需要设计一个定制的应用。会在未来的工作中提供详细的性能研究。


在我们的设置里,top MLP 和 interaction op 需要能连接到 bottom MLP 和所有 embeddings。因为模型并行已经将 embeddings 分散到各个 device 上,这就需要个性化的 all-to-all 的通信。在 embedding lookup 最后这块,每个设备都驻留着一个 embedding tables 的向量,用于 mini-batch 中的所有样本,需要沿着 min-batch 的维度进行拆分并于对应设备通信,如图 2 所示。



PytorchCaffe2 都没有提供原生的模型并行,因此我们通过显示的去不同设备上 mapping the embedding op 来实现。然后使用 butterfly shuffle operator 实现个性化的全对所有通信,适当地对所得到的 embedding vectors 进行切片并将它们传送到目标设备。在当前版本中,这些传输是显式复制,但我们打算使用可用的通信原语 ( 例如 all-gather 和 send-recv ) 进一步优化它。我们注意到,对于数据并行的 MLP,反向传播中的参数更新是用 allreduce 一起累积的,并以同步方式将参数复制到每个设备上,确保每次迭代前每个设备上的更新参数一致。在 PyTorch 中,数据并行性通过 nn.DistributedDataParallel 和 nn.DataParallel 模块在每个设备上复制模型并插入 allreduce 与必要性依赖。在 Caffe2 中,我们在梯度更新之前手动插入 allreduce。

Data

搞了三个数据集,随机集、人造集和公开数据集。前两个可用于从系统角度试验模型,它允许我们通过动态生成数据,消除对数据存储系统的依赖性来测试不同的硬件属性和瓶颈。后者让我们对实际数据进行实验并测量模型的准确性。


1. Random


  • 连续特征用 numpy 根据均匀分布或者高斯分布来生成。

  • 离散特征我们直接生成 embedding matrix 以及对应的 index。


2. Synthetic


有很多理由让我们定制化的生成类别特征的 indices,比如我们用了个特别的数据集,并因为隐私问题不想共享它。那么我们可以通过分布来表达类别特征。这可能有助于替代应用中使用的隐私保护技术,比如 federated learning。同样,如果我们想要研究内存行为,我们 synthetic trace 中原始 trace 的基本访问位置。


假设我们有所有特征的 embedding lookups indices 的 trace。我们可以记录轨迹中的去重后的访问和重复访问的距离频率(算法 1),生成 [14] 提到的 synthetic trace ( 算法 2 )。



请注意,我们只能生成到目前为止看到的 s 次唯一访问,因此 s 是控制算法 2 中分布 p 的支撑集。给定固定数量的唯一访问,input trace 越长将导致在算法 1 中分配给它们的概率越低,这将导致算法 2 要更长的时间取得完整分布支撑集。为了解决这个问题,我们将唯一访问的概率提高到最小阈值,并调整支撑集以便在看到所有访问后从中删除唯一访问。基于 original and synthetic traces 的概率分布 p 的可视化比较如图 3 所示。在我们的实验中,original and adjusted synthetic traces 产生了类似的缓存命中/未命中率。


算法 1 和算法 2 设计过去用于更精确的缓存模拟,但是它们表明一般概念,那就是概率分布可以怎样用来生成具有期望属性的 synthetic traces。



3. Public


个性化推荐系统的公开数据比较少,The Criteo AI Labs Ad Kaggle 和 Terabyte 数据集为了做点击率预估包含了点击日志。每个数据有 13 个连续特征,26 个离散特征。连续特征用 log(1+x) 处理。离散特征映射到对应 embedding 的 index,无标注的离散特征被映射到 0 或 NULL。

Experiments

DLRM 实现地址 ( Pytorch and Caffe2 ) :


https://github.com/facebookresearch/dlrm


The experiments are performed on

the Big Basin platform with Dual Socket Intel Xeon 6138 CPU

@ 2.00GHz and eight Nvidia Tesla V100 16GB GPUs


1. Model Accuracy on Public Data Sets


我们在 Criteo Ad Kaggle 数据集上和 Deep and Cross(DCN) 比较模型的准确率和性能,因为这个模型在同样数据集上有比较综合的结果。值得注意的是,模型的大小可以根据数据集中的特征数去调整。特别地,DLRM 包括用于处理稠密特征的 bottom MLP,其包括 512,256 和 64 个节点的三个隐层,以及由 512 和 256 个节点的两个隐层组成的 top MLP。而 DCN 由六个 cross layer 和一个 512 和 256 个节点的深度网络组成,embedding dimension 是 16,所以 DLRM 和 DCN 都大概有 540M 的参数。


我们画出了训练集和验证集在单 epoch 的准确率,每个模型都使用了 SGD 和 Adagrad 优化器,没有使用正则化。实验中 DLRM 在训练集和验证集的准确率都略高一些,如图 5。值得注意的是,这里边没有进行额外的调参。



2. Model Performance on a Single Socket/Device


这里使用 8 个离散特征+512 个连续特征的模型去测我们模型在单 socket device 上的性能。每个离散特征被处理为有 1M vectors 的 embedding table,vector dimension 是 64,这些连续特征等价一个有 512 维的 vector。让 bottom MLP 有两层,top MLP 有四层。我们在一个 2048K 的随机生成样本数据集即 1K 个 mini-batches 上评估模型。



这个模型用 Caffe2 实现,在 CPU 上要跑 256s,GPU 上跑 62s,具体见图 6。如所预期,主要的时间花费在 embedding lookups 和全连接层。在 CPU 上全连接层的计算消耗显著,而 GPU 上几乎可以忽略。

Conclusion

在本文中,我们利用分类数据提出并开源了一种新的基于深度学习的推荐模型。尽管推荐和个性化系统已在当今工业界中通过深度学习获得了实用的成功,但这些网络在学术界仍然很少受到关注。通过详细描述先进的推荐系统并开源其实现,我们希望人们能关注到这类特别的网络,以便进一步进行算法实验、建模、系统协同设计和基准测试。


本文来自 DataFun 社区


原文链接


https://mp.weixin.qq.com/s?__biz=MzU1NTMyOTI4Mw==&mid=2247494427&idx=1&sn=68659facb19e5c5c3c4c7e8093f362e3&chksm=fbd75977cca0d061dba17ade36e8d6af7eafa74da79d143ca9a2329947a89c7b981b9ff51787&scene=27#wechat_redirect


公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2019-10-29 08:001664

评论

发布
暂无评论
发现更多内容

软件测试/测试开发/人工智能丨视觉与图像识别自动化测试

测试人

人工智能 软件测试

Navicat 基于 GaussDB 主备版的快速入门

华为云开发者联盟

数据库 后端 华为云 华为云GaussDB 华为云开发者联盟

向量数据库——AI时代的基座

陈老老老板

#人工智能

Mac电脑屏幕录像推荐:Iris激活最新版

mac大玩家j

屏幕录制 录屏软件 Mac软件

Mac电脑视频剪辑Final Cut Pro激活版中文最新

胖墩儿不胖y

Mac软件 视频处理工具 视频剪辑软件 视频编辑器

统一身份认证平台之SSO建设

权说安全

单点登录

ON1 Photo RAW 2024 for Mac(RAW照片编辑软件)

展初云

Mac 照片编辑软件

Amazon EC2 新手初探:操作我们的实例

王强

Amazon EC2 亚马逊云服务器

高效开发与设计:提效Spring应用的运行效率和生产力 | 京东云技术团队

京东科技开发者

spring 性能优化 SpringBoot启动流程 企业号11月PK榜

一文看懂:5分钟玩转容器云,彻底化解业务上云烦恼

统信软件

BetterDisplay Pro for Mac(显示器校准软件)

展初云

Mac软件 BetterDisplay

达达埋点迁移京东子午线实践 | 京东云技术团队

京东科技开发者

埋点设计 企业号11月PK榜 埋点迁移 架构迁移

关注潜在的整数越界问题 | 京东物流技术团队

京东科技开发者

spring 企业号11月PK榜 整数越界

NFTScan | 11.13~11.19 NFT 市场热点汇总

NFT Research

NFT\ NFTScan nft工具

使用1688开放平台API接口获取商品详情信息

Noah

00后如何组织双十一大促看这一篇就够了! | 京东云技术团队

京东科技开发者

监控 电商大促 容灾备份 企业号11月PK榜 大促备战

PullTube for Mac(在线视频下载工具)

展初云

视频下载 Mac软件

在你购买小间距led显示屏时需要注意这些事项

Dylan

LED显示屏 全彩LED显示屏 led显示屏厂家 户内led显示屏

CSS 新特性,建议收藏!

秃头小帅oi

CSS 前端

AWS向量数据库Amazon OpenSearch Service使用测评

i查拉图斯特拉如是说

亚马逊云科技 向量数据库 opensearch service

解锁未来:通过数字孪生和区块链进行物联网管理

区块链软件开发推广运营

dapp开发 区块链开发 链游开发 NFT开发 公链开发

Keyboard Maestro for mac(苹果键盘热键软件) v11.0.1完美激活版

mac

苹果mac Windows软件 Keyboard Maestro 键盘快捷键工具

Wireshark网络工具是什么?

小魏写代码

SynVision AI: 虚拟助手的革命

Synvision.AI

人工智能 AI 智能助手 问答助手 聊天助手

使用 VuePress 和 Vercel 打造个人技术博客:实现自动化部署

小白Coding日志

GitHub 个人博客 自动部署 Vuepress2.X Vercel

Amazon EC2 新手初探:更多实例连接方式

王强

Amazon EC2 亚马逊云服务

现身说法:2023中级程序员进阶之路

伤感汤姆布利柏

程序员 程序员成长

Facebook 面向个性化推荐系统的深度学习推荐模型_AI&大模型_DataFunTalk_InfoQ精选文章