UCloud 叶理灯:AI 热潮下的行业落地实践

阅读数:85 2019 年 11 月 12 日 14:33

UCloud叶理灯:AI热潮下的行业落地实践

如果把人工智能当火箭,那么数据是火箭的原料,计算能力就是引擎,算法就是引擎的控制器。
——UCloud 实验室研发总监叶理灯

人工智能的三波热潮

自 2016 年 AlphaGO 与李世石的围棋人机大战获胜后,人工智能再次进入人们的视野,也掀起一波创业和投资热潮。事实上,这波热潮对人工智能领域而言已经是第三波了。

第一波、第二波热潮分别发生于 20 世纪 50 年代和 70 年代,其中不乏人机博弈的场景,当时人们对于人工智能技术的追捧和热情不亚于当下。但这两波热潮都没能坚持到最后落地生根,人们也意识到了理想与现实 AI 技术力量的巨大差异,逐渐对 AI 的价值失去了信心,于是这两波热潮无疑都遭遇到了“寒冬”。

历史总是惊人的相似,但这第三波热潮与前两次相比有何不同?

UCloud 叶理灯认为:“这一波热潮主要推进的其实是深度学习。深度学习即深度神经网络的研究,它能大力推进的原因主要有几点:第一是算法的发展;第二是由于它对计算能力要求很高,这几年包括云计算以及其他各种芯片硬件的发展,会给计算能力提供很好的支持,所以它落地更加容易;第三是很多大厂(像谷歌)会提供一些开发的框架(比如 TensorFlow),它将机器学习的门槛降低,所以导致这次在实用普及性上做得比较好。目前来讲最成熟的应该是计算机视觉,主要包括图片识别,例如大家经常接触到的一些人脸识别——iPhone 上的 Face ID,这可以算是人工智能在图像识别上最为成熟的落地应用之一。”

人工智能发展的三大动力

正如叶理灯所说:“如果把人工智能当火箭,那么数据是火箭的原料,计算能力就是引擎,算法就是引擎的控制器。”人工智能的发展就是靠这三方面的因素去推动的:第一是数据;第二是算法;拥有了精准的算法,下一步就需要相匹配的计算能力。

在数据方面,业内有一个说法叫做有多少个人工就有多少个智能。之所以有这样的说法,是因为这一波机器学习的浪潮。机器学习可分为监督学习和非监督学习,90% 有实用意义的机器学习都是监督学习,监督学习意味着要训练出一个模型就要求事先给这些数据打标签。打标签是一个“体力活”,数据量越大,数据要求的精度就越高,也就意味着要人工给这些数据打标签的工作量就越大。

举个常用例子——鉴黄。一个精确的鉴黄模型背后,需要先收集大量图片,然后利用人工去标记这些图片的类型。再把这些打好标签的图片给计算机进行处理,经过大量的训练学习最终才能得到一个鉴黄模型。这说明打标签的原始数据很重要,打标签的人工过程也很重要。

在计算能力方面,为什么说云计算跟人工智能的落地有很大的关系呢?因为互联网快速发展的最近几年,大部分数据产生于互联网平台。基于云计算弹性灵活的服务模式,很多新兴的互联网创业公司大部分都是基于云计算平台搭建应用,因此越来越多的数据在云服务平台上产生,也更好的促进数据的有效利用和消费。所以,在云平台上做机器学习的训练 Training 和推理 Inference 是极其方便快速的。

AI 浪潮的下半场是和行业结合

“在研发 AI 产品的过程中,我深入接触了很多 AI 公司,明显感觉到人工智能第三波浪潮的发展可以分为上下半场。”叶理灯表示。

目前人工智能的发展在国内可以称为上半场,无论是做应用还是算法开发,很多公司都在拓展人工智能技术和应用的边界。下半场其实是和产业结合,利用 AI 提高企业生产效率,从而实现行业落地,这个能带来的现实价值可能会更大。例如:一个纺织企业业的织布避免不了残次品,如果通过人工分辨,效率太低。如果可以通过人工智能图片识别的方式去判断是否合格,既能提高生产效率,也能降低人力成本。

人工智能跟目前火热的区块链有点类似,它们都是一门技术而不是一个行业。意思是人工智能要落地的话,一定要跟行业结合起来,渗透到行业的实际应用中,这才是人工智能的最终价值所在。

但是 AI 要渗透到行业里,受阻于每个行业的 IT 水平参差不齐,如何快速实现 AI 落地呢?云计算正是辅助 AI 落地的“加速器”,各个行业的计算能力、算法、数据能力都可以通过云计算平台来补短,因为云计算厂商在这些方面已经具备成熟的技术了。

UCloud 助力 AI 落地“三步曲”

人工智能落地有三个步骤:第一是构建 Build,第二是训练 Train,最后是部署 Deploy。我们可以根据在实践中遇到的问题,寻找对应的算法或定义应用算法,并将算法融入到用户已积累的数据中,训练出相应的算法模型。同时将训练出的模型演变成在线服务,这将会极大地增加人工智能应用的价值。

叶理灯说,“UCloud 是一个中立的平台,下不数碰据,上不碰应用,因此与做 AI 应用的公司没有竞争。我们会提供平台,但不是传统的平台,而是专注做一些易用的 AI 平台,帮助传统产业减少在 AI 建设方面的成本。除了云计算的数据处理之外,还有 AI 训练、模型推理等功能辅助 AI 落地。同时还在平台上引入 AI 算法公司,一起为客户打造 AI 解决方案”。

UAI-Inference“两步走”部署模式

UCloud AI 在线服务 UAI-Inference 是面向 AI 在线 Inference 服务的大规模分布式计算平台,UAI-Inference 一方面巧妙地利用云主机中 CPU 的空闲处理能力,将其计算能力用于支持和加速 AI 在线服务;另一方面,利用 CPU 集群强大的可扩展性进行弹性部署,用低成本获得高性能,降低用户的 TCO。

为了帮助用户像使用云主机、云存储这些成熟的云产品一样使用 AI 在线服务,在实际任务部署中,UAI-Inference 为用户提供了“两步走”的部署模式。首先,向用户提供 SDK 工具包,内含接口代码框架、代码和数据打包模板以及第三方依赖库描述模板。用户只需根据 SDK 工具包内的代码框架编写接口代码,准备好相关代码和 AI 模型以及第三方库列表,就可以通过打包工具一键完成任务的在线部署。

任务打包完毕后,用户可以通过 UAI-Inference 分布式的 AI 在线服务 PaaS 平台进行后续管理和维护。该平台可以同时管理上千个计算节点,每个计算节点都是同构节点,具有相等的计算能力,并拥有自动请求负载均衡、自动资源管理的功能。用户只需要将业务部署在平台上,就无须操心其后续的运维。

与 Intel 合作优化训练框架

叶理灯还介绍说,除了传统的 AI 框架,UAI-Inference 还引入了性能更佳的 AI 框架:面向 Intel CPU 优化的 Caffe 框架。这一版本的 Caffe 框架与传统 AI 框架相比,针对 Intel 硬件平台做了深度优化,在保证兼容性的前提下,极大地提高了性能,同时集成最新版本的数学核心函数库 2017,更高效地利用 CPU 的处理能力,性能显著提升。

在物体检测基于 CTPN 模型推理的性能测试中,UCloud 实际比较了开源 BVLC CaffeXeon 基于 E5 2630 V4,Intel Caffe with MKL 2017 基于 E5 2630V3、Intel Caffe with MKL2017 基于 SKX6142(使用 8Core) 三个平台的性能(测试结果如下图)。

UCloud叶理灯:AI热潮下的行业落地实践

从测试结果上看,针对硬件优化的 Caffe 框架,其性能相比普通开源框架,最高提升达到了 43.1 倍。

随着将最新的、经系统优化的 AI 框架引入 UAI-Inference 在线服务平台,将充分发掘新一代 CPU 处理器的能力,进一步优化了 AI 在线服务,让专注于 AI 创新和应用的企业用户,能继续在合理的成本条件下,获取更强的 AI 计算能力支持。

本文转载自公众号 UCloud 技术(ID:ucloud_tech)。

原文链接:

https://mp.weixin.qq.com/s/naP7Pmpy-0DwzYfW-n5W3A

评论

发布