苹果在 WWDC 2017 上发布用于提升移动 AI 的机器学习框架 Core ML

  • 薛命灯

2017 年 6 月 6 日

话题:语言 & 开发架构AI

苹果在 WWDC 2017 大会上发布了一个全新的机器学习 API 框架Core ML。与其他雄心勃勃的科技公司一样,苹果也不甘示弱,意欲让移动设备上的 AI 变得更快、更强大。

Core ML 致力于提升在苹果移动设备上执行 AI 任务的速度,如 iPhone、iPad 和 Apple Watch,包括文本分析和面部识别等任务,同时也会大范围地影响到各类应用程序。这意味着 iPhone 上的图像识别可能比 Google 的 Pixel 快上 6 倍。

Core ML 包含在最新发布的 iOS 11 里,今年晚些时候就可以升级使用。Core ML 将会支持各种主要的机器学习工具,包括全系列的神经网络技术,以及线性模型和组合树。出于对隐私的保护,Core ML 运行在用户设备上,也就是说,用于改进用户体验的数据不会离开用户的设备。开发人员可以将训练过的模型加载到设备上,并将其用在应用程序上。

在设备上运行机器学习的好处显而易见,应用程序不再依赖网络连接,而且避免了在网络上来回传输相关信息,从而加快处理的速度。对于用户来说,他们的隐私得到了保护,因为他们的信息不需要传输到云端。

开发者需要将训练过的模型转成特殊的格式才能在 Core ML 上使用,转换过的模型被加载到 Xcode 里,然后部署到设备上。目前,苹果基于一些开源项目发布了 4 个内建的机器学习模型,并提供了一个转化器用于转换模型的格式。转换器兼容各种流行的框架,如 Caffe、Keras、scikit-learn、XGBoost 和 LibSVM。除此以外,开发者还能自定义转换器。

Core ML 专门为苹果的移动设备进行了优化,尽量减少内存的使用,并降低功耗,这些对于在设备上运行执行机器学习任务来说是非常关键的。

苹果不是唯一一家发力移动 AI 的公司,Core ML 的发布只是顺应了行业的潮流。Google 和 Facebook 之前就为移动设备发布过机器学习框架,高通也发布了神经网络处理引擎,用于提升移动设备的 AI 体验。


感谢陈思对本文的审校。

给 InfoQ 中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ@丁晓昀),微信(微信号:InfoQChina)关注我们。

语言 & 开发架构AI