写点什么

大规模机器学习的编程技术、计算模型以及 Xgboost 和 MXNet 案例

  • 2017-08-24
  • 本文字数:5617 字

    阅读完需:约 18 分钟

本文是“达观数据技术主题月“5 月 19 日大数据杂谈社群分享内容整理。

大家好,很高兴和大家一起分享大规模机器学习相关的知识,希望大家能有所收获。

现在,机器学习的趋势从传统方法中的简单模型 + 少量数据(人工标注样本),到简单模型 + 海量数据(比如基于逻辑回归的广告点击率预测),再发展到现在复杂模型 + 海量数据(比如深度学习 ImageNet 图像识别,基于 DNN 的广告点击率预测)。

总结下在工业届常会用到的大规模机器学习的场景:

(点击放大图像)

这次分享从这 3 部分展开:

  1. 并行计算编程技术
  • 向量化
  • Openmp
  • GPU
  • mpi
  1. 并行计算模型
  • BSP
  • SSP
  • ASP
  • Parameter Server
  1. 并行计算案例
  • Xgboost 的分布式库 Rabit
  • Mxnet 的分布式库 ps-lite

并行计算编程技术

首选提到并行编程技术,这是大规模机器学习的工程基础。

向量化

向量化计算是一种特殊的并行计算的方式,相比于一般程序在同一时间只执行一个操作的方式,它可以在同一时间执行多次操作,通常是对不同的数据执行同样的一个或一批指令,或者说把指令应用于一个数组 / 向量。

在 X86 体系架构的 CPU 上,主要的向量化编程技术是 SSE 和 AVX。Intel 公司的单指令多数据流式扩展(SSE,Streaming SIMD Extensions)技术能够有效增强 CPU 浮点运算的能力。现住主流的编译器 GCC 和 Visual Studio 提供了对 SSE 指令集的编程支持,从而允许用户在 C++ 代码中不用编写汇编代码就可直接使用 SSE 指令的功能。Intel SSE 指令集支持的处理器有 16 个 128 位的寄存器,每一个寄存器可以存放 4 个(32 位)单精度的浮点数。SSE 同时提供了一个指令集,其中的指令可以允许把浮点数加载到这些 128 位的寄存器之中,这些数就可以在这些寄存器中进行算术逻辑运算,然后把结果放回内存。AVX 与 SSE 类似,AVX 将所有 16 个 128 寄存器扩充为 256 位寄存器,从而支持 256 位的矢量计算,理想状态下,浮点性能 AVX 最高能达到 SSE 的 2 倍水平。移动设备上广泛采用的 ARM 架构,ARM 向量指令 Neon 提供 16 个长度位 128 位的向量寄存器。

简单点说:SSE 指令集的加速比为 4 倍,AVX 可以获取 8 倍加速比。

使用也很简单。

AVX 指令集编程示例:

复制代码
for(i=0; i<cntBlock; ++i)
{
// [AVX] 加载
yfsLoad = _mm256_load_ps(p);
// [AVX] 单精浮点紧缩加法
yfsSum = _mm256_add_ps(yfsSum, yfsLoad);
//AVX 指令一次可以处理 8 个浮点数
p += 8;
}
// 合并.
q = (const float*)&yfsSum;
s = q[0] + q[1] + q[2] + q[3] + q[4] + q[5] + q[6] + q[7];

这是一个数组求和的加速例子。

现在主流编译器 GCC 等都支持。

其次是大家最熟悉的多线程编程技术。

UNIX/Linux 中的 pthread, Windows 环境下的 WinThread。但是相对于机器学习并行来说,一方面采用多线程编程技术,开发成本较高,而且需要妥善处理同步互斥等问题;另一方面,不同平台中使用多线程编程库是不一样的,这样也会造成移植性问题。

Openmp

OpenMP 是一个支持共享存储并行设计的库,特别适宜多核 CPU 上的并行程序设计,它使得多线程编程的难度大大降低,是目前机器学习上多线程主流解决方案。

(点击放大图像)

大家可以看看这个例子。我们很容易把传统的 for 循环语句进行加速。OpenMP 也可以实现类似于 MapReduce 的计算范式。更详细的大家可以参考 openmp 的官方文档。

GPU

GPU 编程是目前很热的并行计算方案。

(点击放大图像)

这是 GPU 和 CPU 区别。

为什么 GPU 更快呢?

  • CPU 主要是为串行指令而优化,而 GPU 是为大规模并行运算而优化。
  • GPU 相对 CPU 来说,在同样的芯片面积上,拥有更多的计算单元,这也使得 GPU 计算性能更加强大,而 CPU 则拥有更多的缓存和相关的控制部件。
  • GPU 相对 CPU 来说拥有更高的带宽。

CUDA 是目前主流的 GPU 编程。

(点击放大图像)

这也是一个数组求和例子。大家可以看看 GPU 编程并不是很难,它和传统程序编程区别是:

(点击放大图像)

MPI

MPI 是一种多机并行解决方案,它的核心是消息的传递和接收,解决多级并行中的通信问题。

(点击放大图像)

这是 MPI 程序执行流程。MPI 的学习难度也是比较低的。

复制代码
MPI_Init(…);   初始化环境
MPI_Comm_size(…)    获取进程数
MPI_Comm_rank(…)   获取进程序号
MPI_Send(…)  发送消息
MPI_Recv(…)  接收消息
MPI_Finalize()  并行结束函数

主要是这 6 个函数。

MPI 函数虽然很多,但是功能主要有两大类:

(点击放大图像)

一种是发送数据。

(点击放大图像)

这种是接收数据做规约。很类似于大家常见的 MapReduce 吧。

(点击放大图像)

总结一点,大家可以根据自己的硬件条件来选择合适的并行计算解决方案。

这里要提醒一点,大家如果想 GPU 编程的话,使用 CUDA 技术化,一定要买 nvidia 的显卡,因为其他的装不上。

分布式机器学习系统需要解决的三个问题:

  1. 如何更好的切分成多个任务
  2. 如何调度子任务
  3. 均衡各节点的负载

并行计算模型

BSP

(点击放大图像)

这是一个通用的机器学习问题建模和优化。大规模机器学习的核心就是梯度计算的并行化。BSP 是较早的一个并行计算模型,也是当前主流的并行计算模型之一。

(点击放大图像)

每一步详细分解下。

(点击放大图像)

其计算过程也比较好理解,就是计算 -> 同步 -> 计算 -> 同步…

BSP 具有如下优点:

  1. 它将处理器和路由器分开,强调了计算任务和通信任务的分开,而路由器仅仅完成点到点的消息传递,不提供组合、复制和广播等功能,这样做既掩盖具体的互连网络拓扑,又简化了通信协议;
  2. 采用障碍同步的方式以硬件实现的全局同步是在可控的粗粒度级,从而提供了执行紧耦合同步式并行算法的有效方式,而程序员并无过分的负担;

BSP 模型的这些特点使它成为并行计算的主流模型之一,开源 的 Mahout, Apache Huma, Spark mllib, Google Pregel, Graphlab, xgboost 等的并行实现都是基于 BSP 模型的。

BSP 模型在每一轮结论之后都需要进行一次同步,这很容易造成木桶效应,由于任务的切分中每个任务计算量并不是完全均匀的,而且在复杂的分布式计算环境下,每台机器的硬件条件也是存在差异的,这就造成了 BSP 模型每一轮迭代的效率由最慢的计算任务来决定,为了缓解这个现象,SSP 模型被提出来了。

SSP

(点击放大图像)

SSP 模型

我们把 SSP 中每个任务过程称为 worker,SSP 模型通过设置一个 bound 来确定同步的时机。当最快的 worker 比最慢的 worker 超过这个 bound 时所有的 work 来就行一次参数的同步。这个 bound 可以根据迭代的次数,也可以根据参数更新的差值来确定。SSP 协议的好处在于,faster worker 会遇到参数版本过于 stale 的问题,导致每一步迭代都需要网络通信,从而达到了平衡计算和网络通信时间开销的效果。

SSP 模型数学上证明是可以收敛的。

原因可以这么来解释吧,就是条条大道通罗马。

对于机器学习程序来说,中间结果的错误是可以容忍的,有多条路径都可以收敛到最优,因此少量的错误可类似于随机噪声,但不影响最终的收敛结果。尽快每一次迭代可能存在误差,但是经过多轮迭代后,平均误差趋近于零。尽管每次可能不是最优的求解路径,但是最终还是找到一条通往最优解的整体路径。尽管这条路径不是最快的路径,但是由于在通讯方面的优势,整体的求解速度相对于 BSP 来说还是更快一些,特别是在数据规模和参数规模非常大的情况下,在多机并行的环境下。

ASP

ASP 是一种完全异步的方式,相当于取消了 BSP 中的同步环节。

(点击放大图像)

ASP 的运行速度更快,当然它是没有收敛性保证的。

SSP 协议可以有效平衡计算和网络通信的开销。

对于非凸问题,BSP 和 SSP 收敛的最优解可能不一样。对于非凸优化问题(比如说神经网络),有大量局部最优解,随机梯度下降(可以跳出局部最优解)比批量梯度下降效果要更好。

Parameter Server

参数服务器是近来来在分布式机器学习领域非常火的一种技术。

(点击放大图像)

Parameter Server 参数服务器中比较重要的是各个计算节点的参数同步问题。

(点击放大图像)

Sequential: 这里其实是 synchronous task,任务之间是有顺序的,只有上一个任务完成,才能开始下一个任务,也就是同步方式;Eventual: 跟 sequential 相反,所有任务之间没有顺序,各自独立完成自己的任务,也就是异步的形式;Bounded Delay: 这是 sequential 跟 eventual 之间的折中,当最快计算任务比最慢计算任务快于一定阈值时进行等待,也可以当计算任务对梯度的累计更新值大于一定阈值时进行等待。

总结这 4 种模式的优缺点:

(点击放大图像)

并行计算案例

Xgboost 的分布式库 Rabit

Xgboost 是目前非常牛的一个机器学习包,其分布式做得非常好,我们现在来看一下。

Xgboost 的分布式实现由如下几个特点:

  • OpenMp 支持多核并行
  • CUDA 支持 GPU 加速
  • Rabit 支持分布式

其核心就是 Rabit,Xgboost 将其分布式核心功能抽象出来,Rabit 是基于 BSP 模型的,通过两个基本原语 Broadcast 和 AllReduce 来实现其分布式功能。Broadcase 和 AllReduce 与 MPI 中的功能基本上一致,设计思想类似,为什么不直接使用 MPI 呢。原因就是 Rabit 在这个基础上提供了更好的容错处理功能,弥补了 MPI 的不足。

为什么传统的 MapReduce 模型在机器学习并行化中的作用有限呢?

(点击放大图像)

上图示传统 MR,下图是 XGBOOST 的并行计算过程。

(点击放大图像)

Rabit 在两个地方都做了优化,其一每一轮迭代结束后计算结果不需要放入到存储系统,而是直接保留在内存;其二,每一轮迭代后没有数据重新分发的过程,直接进行下一轮迭代,这使得计算效率大大提升。

Xgboost 的 Rabit 对分布式操作的封装非常的好,可以很方便移植到其他系统中去。我们可以基于 Rabit 来开发我们的分布式机器学习程序。

复制代码
#include <rabit/rabit.h>
Allreduce<op::Sum>(&a[0], N);
rabit::Broadcast(&s, 0);

Rabit 提供了两个最基本的操作 Allreduce, Broadcast 可以很方便进行程序开发。

MXNet 的分布式库 ps-lite

最后我们来提提 mxnet。

ps-lite 是 mxnet 分布式现实的核心,它是基于 parameter server 模型的。

Ps-lite 的使用很简单,可以很方便对现有的机器学习程序进行分布式改造,Ps-lite 的核心是 KVStore,它提供一个分布式的 key-value 存储来进行数据交换。它主要有两个函数:

  • push: 将 key-value 对从一个设备 push 进存储, 用于计算节点将更新后的参数值推送到参数服务器上。
  • pull:将某个 key 上的值从存储中 pull 出来,用于计算节点从参数服务器上获取相关的参数值。

在下面例子中,我们将 单机梯度下降算法改成分布式梯度下降。单机梯度下降算法:

复制代码
for (int i = 0; i < max_iter; ++i) {
network.forward();
network.backward();
network.weight -= eta * network.gradient
}

基于 ps-lite 的成分布式梯度下降:

复制代码
KVStore kvstore("myps ");
kvstore.set_updater([](NDArray weight, NDArray gradient) {
weight -= eta * gradient;
});
for (int i = 0; i < max_iter; ++i) {
kvstore.pull(network.weight);
network.forward();
network.backward();
kvstore.push(network.gradient);
}

这是 ps-lite 分布式改造最常见的一个例子。

我们可以很方便利用开源这些分布式框架来构建我们的分布式应用,比如在工作中,我就基于 ps-lite 对 word2vec, libffm 很快实现了分布式,特别是对 word2vec, libffm 的官方版本是多线程的,改造更简单。

答疑环节

Q1:请问 ASP 的最终结果的准确率有多少?另外在什么场景下比较适合使用 ASP?

陈华清:ASP 目前来说是没收敛性保证了,一般在非凸问题求解过程中会使用,这样求得是一个近似最优解。

Q2:均匀分割数据有时很难保障机器学习同步,这个如何处理

陈华清:样本的均匀分割也并不能保重每个计算节点的任务量是一致的,对这种计算节点任何和性能存在差异的分布式环境,最好采用 Parameter server 模型,通过 bound 的设置来权衡计算节点差异问题,如果差异越大,可以将 bound 设置得越大。

Q3:分布式机器学习里的 数据并行 和 模型并行 各是什么意思?

陈华清:简单点说数据并行,就是每个机器上的模型参数都是完整的,不同的是训练样本不一样。模型并行就是,每个机器上只是模型参数的一部分,全局的模型分布在几台机器上。

Q4:新版 caffe2 的 Net 组成,也采用了 tensorflow、mxnet 等这些框架使用 operator 方式,由更细粒度的 operator 组合而成, 相比其他的框架是不是更好,继续使用。

陈华清:在并行上,caffe 和 mxnet, tensorflow 最大区别就是 caffe 是单机多卡并行,mxnet,tensorflow 可以做到多级多卡并行,当然 caffe 在图像处理收敛效果更佳,如果单机多卡并行可以解决, caffe 也是足够了。

Q5:在计算复杂度很高,如计算 5000w 用户的地址相似度,将相似度较高的用户分组。(复杂度 5000w*5000w) 有没有比较好的优化方法

陈华清:这种相似矩阵计算问题,时间负责度很高,一是通过剪枝的方式,使得矩阵稀疏化,减少计算量 二可以通过 MPI 等实现并行矩阵相乘计算,具体可以参阅矩阵相乘并行例子,网上很多。

Q6:你们有把深度学习应用道广告业务上了吗,主要是用到哪方面,效果如何?

陈华清:广告用到算法场景很多,拿大家最熟悉的 CTR 预估来说,目前我们的尝试主要还是加入图像的深度学习抽象特征,主要的模型还是 libffm。

Q7: 我看过阿里有个鲁班系统是做自动生成创意,你们有这方面的研究吗?

陈华清:我还没有做个这方面的工作,我主要还是集中在深度学习自动 UGC 内容生成上,或者利用深度学习来做图像创意优选。

Q8:对于实际应用中的模型,如何来动态的评估和调整?

陈华清:这个主要涉及机器学习的工程化问题,比如 A-Btest 策略,关于机器学习中工程化问题,以后有机会我们可以接着交流分享。

作者介绍

陈华清,美团酒店旅游事业部高级技术专家,负责美团酒店旅游的数据建设等方面的工作, 有着 10 年的搜索、数据挖掘、机器学习平台等方向的开发经验,曾在阿里巴巴从事数据挖掘和在 360 从事广告算法等方面工作。


感谢杜小芳对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ @丁晓昀),微信(微信号: InfoQChina )关注我们。

2017-08-24 17:183193

评论

发布
暂无评论
发现更多内容

以创新赋能引领鸿蒙应用开发,凡泰极客亮相华为HDC2024

FinClip

没有采用框架的LeSS导入

ShineScrum捷行

大规模敏捷LeSS 吕毅老师 LeSS认证实践者

22.5万奖金池丨Higress AI 网关编程挑战赛启动

阿里巴巴云原生

阿里云 云原生 Higress

软件测试学习笔记丨JUnit5结合数据驱动-csv

测试人

软件测试

电商 API 接口:连接数字商业的关键纽带

Noah

构建万物智联的统一生态 HDC 2024统一生态论坛成功举办

最新动态

超级App构建小程序生态的方式

Geek_2305a8

低代码开发:you can you up!

这我可不懂

比特币生态系统的现状与流动性提升的新路径

区块链软件开发推广运营

dapp开发 区块链开发 链游开发 NFT开发 公链开发

如何通过示例代码实现递归和分治

高端章鱼哥

小程序的到来会激发Hybrid App吗?

Geek_2305a8

自研一款共享集群数据库,有多难?

YashanDB

数据库系统 yashandb 共享集群 崖山数据库

Web端渗透测试初探

FunTester

使用 Spring 实现控制反转和依赖注入

不在线第一只蜗牛

Java spring

深入浅出Python沙箱越狱:原理、方法与防范

我再BUG界嘎嘎乱杀

Python 后端 开发语言 沙箱越狱

大模型+多模态合规分析平台,筑牢金融服务安全屏障

中关村科金

多模态 大模型 安全合规

API安全策略和基础指南

幂简集成

安全 API API安全

火山引擎以“四轮驱动”,助力“智·药未来”

新消费日报

大规模机器学习的编程技术、计算模型以及Xgboost和MXNet案例_语言 & 开发_陈华清_InfoQ精选文章