【AICon】AI 基础设施、LLM运维、大模型训练与推理,一场会议,全方位涵盖! >>> 了解详情
写点什么

阿里提出针对多目标优化的全新算法框架,同时提升电商推荐场景 GMV 和 CTR

  • 2019-10-20
  • 本文字数:8887 字

    阅读完需:约 29 分钟

阿里提出针对多目标优化的全新算法框架,同时提升电商推荐场景GMV和CTR

在推荐系统中,多目标优化一直是热门话题,阿里巴巴的 Xiao Lin、Hongjie Chen 等人针对推荐中的多目标优化问题提出了一种基于帕累托效率的优化算法框架,并应用在电商推荐场景中,对 GMV 和 CTR 多个目标同时优化,线上实验效果好于 LambdaMART 以及基于强化学习的 CXR-RL 等算法。该论文已经被 RecSys 2019 会议录用, 本文是 AI 前线第 94 篇论文导读,我们将对这项研究工作进行详细解读。

介绍

推荐系统在电商平台中扮演着至关重要的角色,推荐算法(例如,Learning To Rank )会为用户生成个性化的推荐列表,可以防止用户信息过载。通常,算法需要精心设计来满足多个目标。然而,同时优化多个目标非常困难,其核心难点在于不同目标之间经常存在冲突。在电商推荐中,点击率(CTR)和成交总额(GMV)是两个并不完全一致但都很重要的目标。为了验证这种不一致性,我们从一个真实的电商平台收集了一周的在线数据,并绘制了当 CTR 上升时 GMV 的变化趋势图。根据图 1,CTR 与 GMV 的趋势变化不完全一致,当 CTR 最优或 GMV 最优时,另一个目标可能是次优的,甚至是不好的。


因此,如果一个解被认为是两个目标的最优解,那么意味着其中一个目标在不伤害另一个目标的情况下很难进一步改进。这种最优性在多目标优化中得到了广泛的认可,被称为帕累托效率或帕累托最优性。在帕累托效率的情况下,只有当解 A 在所有目标上都优于解 B 时,解 A 才被认为优于解 B。帕累托效率的目标是在不受其他目标支配的情况下找到最优解。



现有的帕累托优化方法分两类:启发式搜索和标量化。演化算法是启发式搜索方法中最热门的。然而,启发式搜索并不能保证帕累托有效性,它只能保证得到的解不被对方支配(但仍然可以被帕累托有效解支配)。与启发式搜索方法不同,标量化方法是通过目标函数的加权和将多目标问题转化为单目标问题。然后通过合适的标量,优化重构的目标函数来获得帕累托有效解。目标函数的标量化权重通常是手动确定的,因此帕累托有效性仍然无法保证。总而言之,现有的演化算法和标量化算法难以保证帕累托有效解。最近,Karush Kuhn Tucker(KKT)条件被证明可用于指导标量化。我们尝试在 KKT 条件下构建算法,并提出了一种新的算法框架,在理论保证的前提下,生产标量化的权重。


具体地说,我们提出了一个帕累托有效的算法框架“PE-LTR”,它用 LTR 过程优化多个目标。为了给每个用户生成候选的 item,考虑到多目标,PE -LTR 对候选 item 进行排序,使得这种排序是帕累托有效的。假设每一个目标都存在相应的可微公式,我们采用标量化技术将不同的目标协同成一个单目标函数。如前所述,除非仔细选择权重,否则标量化技术不能保证帕累托有效性。因此,我们提出了一个标量化权值的条件,保证该解是帕累托有效的。该条件等价于一个约束优化问题,并且我们提出了一个算法,它可以通过两步解决该问题。首先通过放宽约束来简化问题,从而得到解析解,然后通过实施投影过程(projection procedure)得到可行解。以 PE-LTR 为基础,依据服务提供者的需求,我们提供方法来生成帕累托边界(Pareto Frontier)和特定的推荐。为了生成帕累托边界,通过均匀设置目标标量权重的边界来运行“PE-LTR”算法框架。为了生成特定的推荐,可以使用适当的边界运行一次 PE-LTR,或者首先生成帕累托边界,然后在特定的公平性度量下选择一个“合适”的解。


在本文中,应用该框架来优化电商推荐的两个重要目标,即 GMV 和 CTR。对于电商平台,主要目标是提升 GMV,但 CTR 需要做出很大的牺牲很大,从长远来看,会使平台的活跃用户(DAU)减少。因此,我们的目标是在同时考虑这两个目标的前提下,找到帕累托有效解。我们分别为 GMV 和 CTR 提出了两个可微分公式,并应用 PE-LTR 框架来生成帕累托最优解。我们在一个真实的电商推荐系统上进行了大量的实验,并将结果与最新的最佳的方法进行了比较。在线和离线实验结果都表明,我们的解优于其他基线,并且我们的解几乎是帕累托有效的。


这项工作的主要贡献是:


(1)我们提出了一个通用的帕累托有效性算法框架(PE-LTR)用于多目标推荐。该框架既不依赖于模型,也不依赖于目标,显示了其强大的可伸缩性。


(2)我们提出了一个 two-step 算法,它理论上保证了帕累托有效性。尽管该算法是建立在标量化技术之上的,但与其他的标量化方法相比,它的不同之处是有理论保证并且标量化权重是自动学习,而不是手动分配。


(3)以 PE-LTR 为基础,提出了如何生成帕累托边界和特定的推荐。具体地说,我们建议在使用适当的公平度量下从帕累托边界中选择一个合适的推荐。


(4)我们使用电商推荐作为 PE-LTR 的一个特例,并在一个真实的推荐系统上进行了广泛的在线和离线实验。结果表明,我们的算法优于其他最先进的方法,所产生的解是帕累托有效的。


(5)我们开源了一个大规模的电商推荐数据集 EC-REC,其中包含展现、点击和购买的真实记录。据我们所知,没有一个公共数据集同时包含三个标签和足够多的特征,这个数据集可以用于进一步的研究。

提出的框架

在这一部分中,我们首先简要介绍帕累托有效性的概念,然后具体介绍所提出框架的细节,即帕累托有效学习排序(PE-LTR)。假定多个目标对应有不同的损失函数,首先我们提出一个能保证帕累托有效解的条件,证明了该条件等价于约束二次规划问题。然后,我们又提出了一个两步算法来解决该问题。此外,我们还提供了用 PE-LTR 生成帕累托边界和特定推荐的方法。

预备知识

首先,简要介绍帕累托有效性的相关概念。帕累托有效性是多目标优化的一个重要概念,即给定一个系统,该系统的目标是最小化一系列目标函数 f1,…,fK,帕累托有效性是一种状态,在不损害其他多个目标的情况下,不可能再改善其中一个目标。


定义 3.1 两个解的结果表示为 si=(fi1,…,fiK)和 sj=(fj1,…,fjK),仅在 fi1≤fj1,fi2≤fj2,…fiK≤fjK(对于最小化目标)情况下,si 支配 sj。


帕累托效率的概念建立在支配的定义之上:


**定义 3.2 ** 如果没有其他的解 sj=(fj1,…,fjK)支配 si,解 si=(fi1,…,fiK)就是帕累托有效解。


因此,在不损害其他目标的情况下,一个解是非帕累托有效性解,它仍可以至少在一个目标上提升,并且在多目标优化中总是可以得到帕累托有效解。值得一提的是,帕累托有效解并不是唯一的,所有这些解的集合都被称为“帕累托边界”。

基于帕累托有效的学习排序算法

为了实现帕累托最优解,我们提出了一种利用标量化技术优化多目标的学习排序方案。假设在给定的推荐系统中存在 k 个目标,模型 F(θ)需要同时优化这些目标,其中θ表示模型参数。在不失一般性的情况下,我们假设对于 K 个目标存在 K 个不同的损失函数。


给定公式,优化第 i 个目标等价于最小化 Li(θ)。然而,同时优化这 K 目标是非常复杂的,因为对于一个目标的最优解通常对于另一个目标是次优的。因此,我们使用标量化技术将多个目标合并成单个目标。确切地说,我们利用ωi 聚合损失函数:



其中,w1+w2+…+wK=1,wi≥0。在真实的场景下,目标可能有不同的优先级。在我们的案例中,我们假定约束被添加到目标中是预先定义的约束边界。例如,wi≥ci,其中 ci 是一个在 0-1 之间的常量,c1+c2+…ci+…+cK≤1。


尽管只有一个目标公式,除非分配适当的权重,否则不能保证问题的解是帕累托有效的。但是,我们得到的标量化权重的条件,可以确保解是帕累托有效的。

3.2.1 帕累托有效条件

为了得到多目标的帕累托有效解,我们试图最小化聚合损失函数。模型参数的 KKT 条件(Karush-Kuhn-Tucher 条件):



满足此条件的解称为帕累托平稳解。该条件可转化为以下优化问题:



已经证明该优化问题的解是 0,使得满足 KKT 条件,或者解能指导梯度方向来最小化所有损失函数。如果满足 KKT 条件,则解是帕累托平稳的,并且在现实和温和条件下也能做到帕累托有效性。在此条件上,我们提出了一个算法框架 PE-LTR,其细节在算法 1 中给出了说明。



该框架以均匀的标量加权开始,然后交替地更新模型参数和标量权重。PE-LTR 的核心部分是 PECsolver,它通过求解问题(1)中的条件来产生标量化权值。注意,该条件是一个复杂的二次规划问题,我们给出了在算法 2 中 PECsolver 的详细过程。



值得一提的是,算法框架不依赖于损失函数或模型结构的特定公式。任何带有梯度的模型和公式都可以很容易地应用到框架中。尽管算法在批处理中采用随机梯度下降法,但该算法为梯度下降的收敛提供了理论保证。

3.2.2 二次规划算法

将ωi^表示为ωi-ci,帕累托有效条件变为:



帕累托有效条件等价于问题 1,然而,由于它的二次规划形式,解决这个问题并不是一个轻而易举的任务。因此,我们提出了一个两步算法,作为帕累托有效条件求解的工具。该算法在算法 2 中有详细说明。我们首先通过只考虑等式约束来松散问题,然后用解析解来解决松弛问题。然后,我们引入一个投影过程,从在所有约束下的可行解的集合中生成一个有效解。


当除了等式约束,忽略所有其他约束时:



松弛问题的解由定理 3.3 给出。



然而,因为省略了非负性约束,问题 3 的解ω*^可能是无效的。因此,我们执行以下投影步骤以获得有效的解。



这个问题是一个非负最小二乘问题,并且可以很容易地用有效集方法求解。由于篇幅的限制,我们省略了问题 3 算法的细节。算法 2 的复杂度主要由伪逆(pseudo-inverse)运算决定,它与目标数目有关。通常目标的数量是有限的,因此算法 2 的运行时间是可忽略不计的,在线实验也证实了这一点。

帕累托边界生成与解的选择

多目标优化可以用于寻找一个特定的帕累托解,或者被用来生成一组解来构造帕累托边界。在本节中,我们将介绍用算法 1 生成解的细节。

帕累托边界生成

在算法 1 中,给定不同目标的边界,我们可以得到帕累托最优解。然而,存在一些场景,我们期望有一系列的帕累托最优解存在,即帕累托边界。这对于算法框架来说很简单,我们将不同的值设置到各个目标的不同边界上执行算法 1 就可以得到。


为了得到帕累托边界,我们执行多次算法 1,并且在每个运行中用适当的边界生成的解产生帕累托最优解。我们适当地选择边界,以便均匀分布的帕累托点可以生成一个好的均价分布近似的帕累托边界。

解的选择

在期望单个推荐的情况下,我们需要选择一个特定的帕累托最优解。当不同目标的优先级可用时,我们可以通过为目标设置适当的边界来获得适当的帕累托有效推荐并执行一次算法 1。


当优先级不可用时,我们可以首先生成帕累托边界并选择一个对目标公平的解。无论是在经济学理论还是在推荐系统背景下,公平都有几种不同的定义。最直观的度量之一是 Least Misery,它集中在最“悲惨”的目标上,在我们的例子中,一个“Least Misery”的推荐是最小化目标损失函数的最大值:



另一个常用的度量是公平边际效用,即选择一个解,其中优化一个目标的成本几乎等于其他目标的收益:



给定一个生成的帕累托边界,方程 5 或者 6 的最小值的解,被选择作为最后的推荐,这取决于公平性的选择。

电商推荐的特殊性

在 PE-LTR 算法框架的基础上,我们详细介绍了其在电商推荐中的具体应用。电商推荐中最重要的两个目标是 GMV 和 CTR。对于电商平台,GMV 通常是首要目标。然而,CTR 是评估用户体验的一个重要指标,长远来看影响平台的扩大。因此,我们的目标是考虑两个目标的前提下,找到一个推荐是帕累托最优的。


考虑到在现实环境中,LTR 模型以流数据为输入,在线更新其参数。因此,在线的 LTR 模型通常遵循 point-wise 的排序方案。我们将问题描述为二元分类问题,并针对这两个目标分别设计两个不同的损失函数。


在电商推荐系统中,用户反馈可以大致分为三种类型:展现、点击和购买。假定表示一个实例为(xj,yj,zj),j∈ [1,…,N],给定 point-wise 的排序模型 F(θ),我们提出优化这两个目标,即 CTR 和 GMV。对于 CTR 优化,我们的目标是最小化:



对于 GMV 优化,我们的目标是最小化:



其中 h(price(j))是关于 price(j)的凹单调非递减函数,price(j)表示 xj 中 item 的价格。在我们的公式中,我们选择 h(price(j))=log(price(j))。我们假设 p(zj=1,yj=1)与模型 F(θ)参数无关。因此,给定一个模型 F(θ)和 Lctr(θ,x,y,z)和 Lgmv(θ,x,y,z)的表达式,电商推荐问题变成:



注意,提出的框架不依赖于特定的模型结构或损失公式,只要模型有梯度,它就可以工作。因此,CTR 和 GMV 损失的计算公式不是本文的重点,而更为精心设计的计算公式可以应用到这个框架中。


此外,我们没有关注特定的 LTR 模型,而是使用三种不同的典型模型进行比较,即 LR、DNN 和 WDL。DNN 模型是一个三层 MLP,在 wide&deep 模型中具有与深部结构相同的结构。对于所有的神经网络组件,我们选择 tanh 作为每个隐藏层的激活函数,而最后一层采用线性函数作为输出。在实验 5 中对三种不同模型进行了比较。

实验

在本节中,我们将介绍实验的详细细节,旨在回答以下研究问题:


(1)与目前最先进的以 CTR/GMV 导向的方法和多目标推荐算法相比,该框架的性能如何?


(2)就单一推荐和帕累托边界而言,提出框架的帕累托效率如何?


(3)从模型选择的角度来看,提出框架的可伸缩性如何?


为了回答这些研究问题,我们在一个流行的电商网站上对真实世界的数据集进行了广泛的实验,包括在线和离线实验。

数据集

据我们所知,没有一个公开的电商数据集包含这些重要的特征,例如同一时间的价格、标签的展现、点击和购买。因此,我们从一个流行的电商平台收集了一个真实的数据集 EC-REC 。由于在线数据量巨大,我们收集了一周的数据,并为离线实验采集了超过 700 万个展现样本,数据集将公开,以支持未来的研究。同时,利用 PE-LTR 为用户服务,我们对在线实验进行了 A/B 测试。这些特性来自于用户画像和 item 画像,例如用户的购买力和 item 的平均购买次数。

实验设置

我们进行了离线和在线实验来验证所提框架的有效性,并以最先进的方法作为比较的基准。

6.2.1 基线

我们选择最新的推荐方法进行比较,基线可以分为三类:典型方法(CF、LambdaMART)、以 GMV 导向的方法(LETORIF、MTL-REC)和优化两个目标的方法(CXR-RL、PO-EA)。


  • ItemCF 基于 item 的协同过滤。

  • LambdaMART 是最先进的学习排序方法。一个 MART 模型用于优化 NDCG 的 loss。然而,LambdaMART 只关注点击相关性,而购买不考虑。

  • LETORIF 是最大化 GMV 的学习排序方法,并采用 price*CTR*CVR 进行排序,其中 CTR 和 CVR 是两个单独的模型进行预测。

  • MTL-REC 采用多任务学习技术对 CTR 和 CVR 模型进行训练。两个模型共享相同的用户和 item 嵌入和类似的神经网络结构。排序模型也是 price*CTR*CVR。

  • CXR-RL 是一种最近基于值感知的推荐算法,它同时优化了 CTR 和 CVR。CXR 设计为 CTR 和 CVR 的组合。CXR-RL 使用强化学习技术来优化 CXR,从而实现 CTR 和 CVR 之间的平衡。

  • PO-EA 是一种最先进的多目标推荐方法,旨在寻找帕累托有效的解。PO-EA 假定不同的基础算法在目标上具有不同的优势。它用多个初等算法给出的分数,用演化算法生成权重。基础算法包括 LETORIF-CTR、LETORIF、CXR-RL、PE-LTR-CTR 和 PE-LTR-GMV。LETORIF-CTR 是指 LETORIF 中的 CTR 模型。PE-LTR-CTR 和 PE-LTR-GMV 都是 PE-LTR 模型,在模型中加入边界约束,对 CTR 和 GMV 进行相应的优化。两个 LTR 模型被用作基础算法,以便与 PE-LTR 进行公平比较。

  • PO-EA-CTR ,PO-EA-GMV 由 PO-EA 生成的两个解决方案,分别针对 CTR 和 GMV。

  • PE-LTR-CTR,PE-LTR-GMV 由 PE-LTR 生成的两个解决方案,分别针对 CTR 和 GMV。

6.2.2 实验设置

我们采用了两种典型的 IR 测量方法来评估 CTR,即 NDCG 和 MAP。同时,我们为这两个指标提出了两种 GMV 变体:



其中 Q®表示 item 购买集合,pay(i)=0/1 表示在第 i 次 rank 中 item 是否被购买,price’(i)表示第 i 次 rank 中 item 的价格,G-IDCG@K 表示 G-DCG@K 中最大的可能值。G-NDCG@K 考虑了在排序列表中位置偏差的 GMV,偏好高 ranking 的 item 被购买,而 G-MAP 考虑在推荐列表中购买数量。对于用户没有购买记录的,两个度量指标的值都是 0。

离线实验结果

6.3.1 对比基准线

为了回答最初的研究问题,我们在表 2 中对 NDCG、MAP 和 GMV 相关度量进行了比较。


PE-LTR 是从具有公平边际效用的帕累托边界选择模型,PO-EA 是具有在 CTR 指标方面跟 PE-LTR 可比的模型。如表所示,PE-LTR 在所有 GMV 相关指标上都优于其他方法,在 CTR 相关指标上也优于 LambdaMART。与 Item-CF 和 LambdaMART 相比,PE-LTR 可以获得更高的 G-NDCG 和 G-MAP。这是合理的,因为 PE-LTR 联合优化了 GMV 和 CTR,而 GMV 在 Item-CF 和 LambdaMART 中没有优化。同时,PE-LTR 实现了与 LambdaMART 相当的 NDCG 和 MAP。在对 Web 搜索基准中,LambdaMART 通常是性能非常好的方法。这说明了我们的框架的有效性,它不仅优化了 GMV,而且保证了高 CTR。



与 LETORIF、MTL-REC、CXR-RL 和 PO-EA 相比,PE-LTR 可以实现更高的 G-NDCG 和 G-MAP,并且成本更低。这背后有几个原因:


  • 首先,与 LETORIF 和 MTL-REC 相比,PE-LTR 使用一个模型来联合学习两个目标,这允许模型同时学习点击和购买;而在 LETORIF 和 MTL-REC 中,两个单独的模型或组件被设计用于点击和购买,这可能导致一些不一致性。

  • 其次,与 CXR-RL 和 PO-EA 相比,PE-LTR 以帕累托有效的方式协调两个目标。CXR-RL 优化了两个目标,但以非帕累托有效的方式。同时,虽然 PO-EA 试图用寻找帕累托有效解,但它只能保证最终解是从一系列互不支配的解中选择出来的。


在图 2 中,我们进一步绘制了 PO-EA 和 PE-LTR 的 NDCG 与 G-NDCG 曲线(由于篇幅限制,我们只在本文的图中绘制了 G-NDCG 和 NDCG,结果与 MAP 和 G-MAP 相似)。如图表所示,PO-EA 所产生的任何解都不受 PO-EA 中的另一个支配,并且情况与 PE-LTR 相同。然而,我们观察到 PE-LTR 的曲线高于 PO-EA 的曲线,这意味着 PO-EA 的解主要是由 PE-LTR 生成的解。注意两个 PE-LTR 算法已经被用作 PO-EA 的基本组成部分,比较表明,所提出的框架更能生成帕累托有效解。



此外,电商平台中的真实数据可能不遵循典型的假设。在 PE-LTR 中,标量权重在每个批次中调整,能够在训练过程中动态地调整训练数据。同时,PO-EA 需要几个经过训练的算法来聚合,这使得它更难满足在线学习环境的要求。


我们进一步比较了排名第一的推荐的质量。由于用户通常更关注排名靠前的 item,因此排名靠前的指标在推荐中更为重要,结果如图 3 所示。如图所示,PE-LTR 在 GMV 相关指标上优于其他基线,且损失 CTR 较少。这说明了帕累托效率在现实推荐系统中的重要性。单独优化一个目标可能会严重损害其他目标。因此,有必要同时考虑多个目标,帕累托效率推荐使得以较低的损失 CTR 下实现高 GMV 成为可能。


6.3.2 PE-LTR 的帕累托效率

为了回答第二个研究问题,我们首先通过运行算法 1 生成 CTR 和 GMV 损失的帕累托边界,并在图 2 中绘制帕累托边界。可以看出,在不同的约束条件下,损失基本上遵循帕累托效率,即没有一个点比其他点同时达到更低的 CTR 和 GMV 损失。当模型更关注 CTR 时,CTR 损失较低,GMV 损失较高,反之亦然。这与该框架的帕累托有效标量方案相吻合。


然后比较了不同选择策略下 PE-LTR 的解。我们预先定义了 CTR 和 GMV 的两组边界:(ω(ctr)≥0,omega(gmv)≥0.8)和(ω(ctr)≥0.8,omega(gmv)≥0.0),得到了两个分别聚焦于 GMV 和 CTR 的 PE-LTR(PE-LTR-GMV 和 PE-LTR-CTR)。然后从帕累托边界选择两个具有 LM 公平和 MU 公平的 PE-LTR(PE-LTR-LM 和 PE-LTR-MU)。我们在图 4 中绘制了这些 PE-LTR 之间的比较。



PE-LTR-CTR 和 PE-LTR-GMV 与被添加到目标的约束性能是一致的。因此,当 GMV 和 CTR 的优先级可用时(即 GMV 或 CTR 优先),可以通过相应地设置边界来实现推荐。当优先级不可用时,可以通过从具有最高公平性的帕累托边界中进行选择来实现公平解决。尽管所选择的 PE-LTR(PE-LTR-LM 和 PE-LTR-MU)在所有指标上都不是最好的,但它在两个目标之间实现了相对良好的权衡。将 PE-LTR-LM 与 PE-LTR-MU 进行比较,我们认为 LM 和 MU 公平性选择的两个推荐是相对平衡的。在 GMV 中,PE-LTR-MU 优于 PE-LTR-LM,而在 CTR 中,PE-LTR-LM 稍好。

6.3.3 PE-LTR 的可扩展性

为了回答第三个研究问题,我们进行了实验,从模型选择方面展示了可伸缩性。我们使用 LR、DNN 和 WDL 作为 PE-LTR 框架中的模型,模型的详细内容见第 5 节。我们为模型设置了相同的边界,结果如图 5 所示。



从结果来看,模型选择对 PE-LTR 的性能有重要影响。在三个 PE-LTR 变体中,PE-LTR-WDL 优于其余的,PE-LTR-DNN 优于 PE-LTR-LR。这是因为神经网络能捕获比线性模型更复杂的特征之间的关系。Wide&Deep 的模型将神经网络和线性模型结合到一个模型中,使推荐更好地泛化和记忆。因此,PE-LTR 能够适应不同的模型,更强的模型可以带来更好的性能。这也说明了 PE-LTR 的潜力,其性能可以通过更精心设计的模型进一步提高。

在线实验结果

我们在真实的电商平台上进行了 3 天在线实验。在线实验中,仅考虑 CTR 的方法会严重伤害 GMV。因此,只考虑 CTR 的方法不包括在在线实验中。


在线实验中我们关注四个度量指标,即 CTR(点击率)、IPV(单个页面查看)、PAY(购买量)和 GMV(成交总额)。我们计算了三天的平均性能,结果见表 3。由于用户数量众多,结果具有统计上的显著性。我们使用 LETORIF 作为基线,并在表中给出比较方法在 LETORIF 上的提升。



从结果观察到,我们的方法在四个度量上优于其他基线。这与离线实验的结果基本吻合。请注意,PE-LTR 在较高的 CTR 下实现了 GMV 的显著提升,这说明帕累托有效推荐的优势。同时,PO-EA 要求离线模型来聚合需要,不能在线学习权重,使实验效果不好。

结论

本文研究的是推荐中多目标优化的问题。我们提出了一个通用的算法框架,在理论保证下生成帕累托有效解。同时,我们提出了一个保证帕累托有效性的理论条件和一个两步算法,它可以进一步适应目标约束。我们将该框架应用在电商推荐上同时优化 GMV 和 CTR,并在一个真实的电商推荐系统上进行了大量的实验,实验结果验证了该框架的有效性。同时,该框架不依赖于模型和目标,显示了强大的可伸缩性。


论文原文链接:


https://dl.acm.org/citation.cfm?id=3346998


公众号推荐:

跳进 AI 的奇妙世界,一起探索未来工作的新风貌!想要深入了解 AI 如何成为产业创新的新引擎?好奇哪些城市正成为 AI 人才的新磁场?《中国生成式 AI 开发者洞察 2024》由 InfoQ 研究中心精心打造,为你深度解锁生成式 AI 领域的最新开发者动态。无论你是资深研发者,还是对生成式 AI 充满好奇的新手,这份报告都是你不可错过的知识宝典。欢迎大家扫码关注「AI前线」公众号,回复「开发者洞察」领取。

2019-10-20 14:009457

评论

发布
暂无评论
发现更多内容

求爷爷告奶奶,阿里大佬才甩出这份Spark+Hadoop+中台实战pdf

程序知音

大数据 hadoop spark 后端技术

专精特新 ︱ 腾讯云 CODING 助力消费电子类企业高速发展期的研运一体化

CODING DevOps

斯坦福、Nautilus Chain等联合主办的 Hackathon 活动,现已接受报名

EOSdreamer111

Django笔记三十四之分页操作

Hunter熊

Python django 分页

如何让 300 万程序员爱上 CODING?

CODING DevOps

2023-05-20:go语言的slice和rust语言的Vec的扩容流程是什么?

福大大架构师每日一题

golang rust 福大大

mac端好用的建模软件分享~

真大的脸盆

Mac Mac 软件 建模工具 三维建模软件

Cloud Studio 高阶玩家:强大的 YAML 模板

CODING DevOps

轻松建模、编辑、分析尽在Rhino 7中文激活版~

真大的脸盆

Mac 3D Mac 软件 建模软件 3d建模

一文盘点PoseiSwap近期的生态利好

西柚子

斯坦福、Nautilus Chain等联合主办的 Hackathon 活动,现已接受报名

股市老人

文心一言 VS 讯飞星火 VS chatgpt (19)-- go语言的slice和rust语言的Vec的扩容流程是什么?

福大大架构师每日一题

福大大 文心一言 讯飞星火

Midjourney|文心一格 Prompt:完整参数列表、风格汇总、文生图词典合集

汀丶人工智能

人工智能 AI绘画 MidJourney 文生图 prompt learning

9款好用的项目工时软件推荐

PingCode

项目管理 工时管理

由斯坦福、Nautilus Chain等联合主办的 Hackathon 活动,现已接受报名

鳄鱼视界

UserDAO(UWT)会是WEB3.0中新的宠儿吗?

币离海

Web3.0 UserDAO UWT

一文盘点PoseiSwap近期的生态利好

EOSdreamer111

Ribbon默认负载均衡规则替换为NacosRule

越长大越悲伤

Spring Cloud

由斯坦福、Nautilus Chain等联合主办的 Hackathon 活动,现已接受报名

西柚子

Midjourney|文心一格prompt教程[进阶篇]:Midjourney Prompt 高级参数、各版本差异、官方提供常见问题

汀丶人工智能

人工智能 AI绘画 MidJourney 文生图 prompt learning

AIGC背后的技术分析 | 机器学习中的卷积神经网络

TiAmo

卷积神经网络 AIGC

太猛了!Github大佬那白嫖的分布式进阶宝典,啃完感觉能吊锤面试官

Java你猿哥

Java 架构 软件开发 ssm 架构设计

双模齐下,提质增效:CODING 携手知微共创 BizDevOps 体系新篇章

CODING DevOps

Django笔记三十三之缓存操作

Hunter熊

Python redis django 缓存

Python潮流周刊#2:Rust 让 Python 再次伟大

Python猫

Python

一文盘点PoseiSwap近期的生态利好

股市老人

Turbo Boost Switcher Pro for mac(cpu温度监测工具) 2.10.2

真大的脸盆

Mac Mac 软件 CPU温度监测工具

低代码实现探索(五十八)低代码平台

零道云-混合式低代码平台

使用Go语言实现工厂模式的三种方式

Jack

一文读懂大语言模型

俞凡

人工智能

开源字节 CRM 系统

源字节1号

开源 软件开发 小程序开发

阿里提出针对多目标优化的全新算法框架,同时提升电商推荐场景GMV和CTR_AICon_吴少杰_InfoQ精选文章