2021腾讯数字生态大会直播预约通道开启!技术内容大爆发,开发者必看! 了解详情
写点什么

专访英特尔首席工程师戴金权,全面解析英特尔深度学习框架 BigDL

2017 年 8 月 08 日

为了降低企业用户使用深度学习进行数据分析和构建人工智能应用的门槛,2016 年 12 月 31 日,英特尔开源了基于 Apache Spark 的分布式深度学习框架 BigDL,为整个数据分析和机器学习过程提供比现有框架更加统一和集成化的体验,进一步帮助用户减少端到端的学习延迟,降低总体拥有成本。

InfoQ 专访了英特尔高级首席工程师戴金权,为读者解读 BigDL 的研发目的、整体架构、技术特点以及英特尔在深度学习方向的未来规划。

BigDL 是如何诞生的

戴金权,英特尔高级首席工程师,负责英特尔大数据分析,包括分布式机器学习、深度学习,也包括 BigDL 项目的研发工作。同时也在和世界一些顶级的研究机构,像伯克利的 AMPLab、RICELab 等等,在数据分析、机器学习等研究上进行合作。此外,他也是 Apache Spark 创始的 Committer 和项目管理委员会的成员。

在整个 BigDL 的开发团队中,戴金权负责整个项目的架构和技术路线,同时,他也领导着硅谷和上海两部分,20 多人的团队进行 BigDL 和数据分析相关技术的研发,包括 BigDL 本身的底层框架平台,也包括上层很多的算法和应用。

戴金权说道:“我们开发 BigDL 的主要原因或者目的是为了让深度学习更方便地使用。今天大家可以看到在机器学习、深度学习的社区,主要是 Research 的社区有很多新的突破、新的结果不停地涌现。但是大多数的数据的用户,不管是大数据的用户,数据工程师,数据科学家甚至分析师,他们通常不是深度学习的专家,但是他们希望能够使用深度学习的技术。怎么样更方便地使深度学习为他们所使用,这是我们开发 BigDL 的主要目的。”

戴金权随后分享了团队的做法:

第一,可以让大家重新利用现有的软件、硬件的架构,不需要做任何改变,可以直接开发深度学习的框架。

第二,可以在现有的大数据的集群上高效运行,不需要多少改变也能够高效、方便地进行扩展。

大数据集群的一个特点就是横向水平扩展,戴金权表示 BigDL 应该目前在所有社群中能够最方便地让大家做分布式水平扩展,用户不需要做任何事情就可以扩展到很大数量的节点上来运行这样的框架。

戴金权提到,BigDL 是目前来说唯一一个直接在大数据的生态圈、大数据的平台上原生构建的深度学习框架,它跟现有的其他深度学习框架,比如 Tensorflow、Caffe 相比,一个最大的特点,就是它的易用性;

从方便管理的角度来说,大数据的平台其实已经有非常好的服务,像 Yarn 或者 Mesos,对资源的管理和共享非常方便。而很多其他的框架都假定有一个特殊的、单独的基础架构来支持它,从资源管理、运维方便性来说也是非常大的挑战。BigDL 能够很方便地进行分布式的横向扩展,在其他的框架上要做很多特殊的事情就是不那么方便。方便性是研发团队主要的一个目标。

从效率上来说,戴金权强调到:这里的效率不光是单点的性能,英特尔能够针对单点性能做非常好的优化,但是怎么做分布式这是另一方面,现实环境中计算通常是处在动态的、弹性的环境中,会有很大的集群,并且集群里面的机器可能是不一样的,可能和其他很多任务是动态共享的,运行当中可能会为了更高级的任务把有的任务杀掉等等,在很多实验室的环境可以设立一个集群,几个节点、十几个节点,在上面运行,但是真实生产环境中怎么样能够很方便、很高效地和不同的生产环境融合在一起,“因为我们基于大数据的架构,所以我们很容易做到这些事情。”

除了 BigDL 外,英特尔也有 SparseML 这样构建在 Spark 上的开源机器学习库。戴金权介绍到,在与很多客户合作的过程中,特别是一些大规模的互联网公司合作时,会有大量维度很高可能几亿甚至几十亿,但是非常稀疏的数据产生,每一条数据记录里面可能非零项可能只有几百个、几千个,大多数的字段都是零,这是在互联网公司非常常见的。高维度、非常稀疏的数据,如果直接在现有的机器学习的算法上运行,其实不是特别高效。所以英特尔与一些客户合作构建了 SparkML,专门为稀疏数据做相对比较经典的机器学习工具,对此类应用场景有非常好的支持。

BigDL 的整体架构

戴金权介绍:从最高级别来讲,BigDL 采用了分布式的 synchronous mini-batch SGD,它的分布式训练就是一个循环。这个循环里面每个迭代处理一个 mini-batch,每个 mini-batch 里面根据神经网络的定义计算它的偏差,然后根据偏差来更新它的参数。每个 mini-batch 的处理是很自然的数据并行化的工作,对每个迭代的处理都可以用一个 Spark 的作业来处理,Spark 作业天然的就可以通过 RDD 进行数据并行化的操作,然后来计算这些偏差。

每一个迭代结束的时候,需要把所有的偏差的参数进行同步,然后对参数进行更新,然后分发到下一个迭代,那就是另外一些系列的 Spark 的作业任务来进行处理。所以从高层来说就是 synchronous mini-batch SGD,然后做分布式的工作。

从性能方面,戴金权从两部分进行了解析:一部分是单点的性能,单点的性能,英特尔已经优化了非常多,英特尔的 MKL 可能是 IA 平台上最快的数学库,此外还有大量的,包括在多线程上对 JVM 的优化,对多线程的优化、对 JNI 的优化等等这个过程,这样我们能做到单点非常高的效率。另一方面是做分布式,利用 Spark 本身的架构做数据并行处理;另外一块要做同步,因为是同步的 mini-batch SGD,所以需要在每个迭代结束后对参数进行同步,进行更新。

据介绍,研发团队采用了类似于“参数服务器”的架构,但是并没有引入新的参数服务器的实现,这是通过跟用户的合作,发现对用户来说多部署一套系统是更麻烦的事情,由于 Spark 是基于内存计算的框架,所以它内部有一些 Block Manager。

同时由于 Spark 内部是基于内存的 cache 的机制,为了整个系统的易用性,直接利用这个机制构建一个类似于参数服务器的架构,直接在 Spark 内部就可以做类似于参数服务器的这样的操作,可以很高效的同步。这样不管是计算还是整个网络的分布式、同步都能做到性能上的极致。

BigDL 的工作流程

所有的深度学习、人工智能的应用并不是一个孤立的系统,它是一个端到端的非常复杂的数据处理、数据分析的流水线,里面有非常核心的算法模型。同时从数据输入到数据管理,特征的转换、提取然后去训练,训练过程中要考虑到各种各样的资源管理,整个 Data Science Workflow 再加上整个数据的管理,这是一个非常复杂的过程。

戴金权说:“因为今天有很多人,在使用一些框架的时候,做的事情无非是在 Spark、Hadoop 上对数据进行处理,然后转换。转换完的结果拷贝到另外一个地方然后进行处理”,所以他和研发团队在 Spark,或者说在广义的 Apache Hadoop 平台之上,构建了 BigDL 这样一个平台,能够帮助使用者进行从数据一开始的管理到抽取,到特征的处理,再到算法模型的实现。BigDL 团队在 Spark 大数据平台上做这件事情,能够把深度学习这样一个功能和现有的数据科学、数据管理、特征提取工作流整合在一起,作为一个工作流进行管理。

BigDL 开源这些天

从开源到现在也有一些公司也对 BigDL 做了一些集成,比如偏向公有云的 AWS、Azure、阿里云等等。业界在几周前有一个发布:Cray,美国的一个做超级计算的公司,它刚刚在 ISC 宣布他们会发布自己的分析软件包,BigDL 也包括在里面,可以为他们的超级计算提供深度学习的功能,某种意义上来说是 BigDL 的第一个商业发行版,但是由 Cray 公司来提供的。

在与不同的公司合作过程中,英特尔也得到了很多不错的反馈,戴金权举例说,比如 Python 的支持,BigDL 在去年年底发布的第一版时候,是基于 Spark 的 Scala 的实现,后面加入了非常大量的 Python 的支持,因为今天数据科学家或者分析师用的最主要的一个环境就是 Python。同时他表示,研发团队加入了很多功能诸如:集成像 Notebook、或者谷歌的 Tensorboard 之类的可视化的工具,可以使用 Tensorboard 对程序进行可视化,以及进行大量的 RNN 的支持,大量的文本 NLP 处理的支持。

戴金权说,目前团队正在进行 BigDL 0.2 的发布。之前 Cray 产品会集成 BigDL 0.1 的版本,而英特尔目前正在工作在 BigDL 0.2 发布的周期中,这里面有非常多新功能:比如会加入对 Tensorflow 的支持,使用者可以导入 Tensorflow 的模型,甚至可以用 Tensorflow 来定义自己在 BigDL 上运行的模型;可以和 Spark ML pipeline 很好地集成,可以直接在 Spark 的 pipeline 里面把 BigDL 所有的深度学习的功能很方便地用起来;同时也会加入对 Windows 的支持;使用者也可以用 BigDL 跑在一个 Local JVM 上,从而可以在其他的框架,比如 Storm 上直接运行 BigDL 的模型;此外还有非常多更高级的神经网络功能的支持。

英特尔在深度学习领域的布局

英特尔公司来说一直致力于人工智能计算的民主化,从端到端,从硬件到软件栈,从数据中心端到设备端都有非常多的工作在进行中。戴金权说,目前英特尔也在专注一些硬件的加速工作,比如 Nervana 即将推出的 Lake Crest;还有上层的类似于 MKL 的数学库;还包括对各个深度学习的框架,比如 Tensorflow、Caffe,英特尔都做了大量优化。

在开源方面,戴金权介绍说,除了 BigDL,英特尔方面还在做一些工作,比如在 MKL 里面加入一些深度神经网络的支持;或者列如 Nervana Graph 的工作,从某种意义上来说,它是对深度学习增加了一个优化器,能够针对不同的硬件架构生成高效的执行代码。这些工作英特尔都在进行中,也会陆续开源。

2017 年 8 月 08 日 19:001066
用户头像
陈思 InfoQ编辑

发布了 576 篇内容, 共 215.2 次阅读, 收获喜欢 1219 次。

关注

评论

发布
暂无评论
发现更多内容

英特尔On技术创新峰会

英特尔On技术创新峰会

专访英特尔首席工程师戴金权,全面解析英特尔深度学习框架BigDL-InfoQ