作者介绍:作者在机器学习、深度学习、增强学习(reinforcement learning)和马尔卡夫决策过程(Markov decision process) 方面工作超过十年,并知道其中的苦与乐。他开发了自己的工具和系统,大部分开源了,工业级别的应用从NASA 火星探测器的活动模型到空客网络安全系统,再到工业自动控制系统。一年前,他更多的聚焦在AI 工具集、深度学习和神经网络等的商业化。最近惊奇的发现,许多非常棒的机器学习库开源了,对开发者透明、友好,并且版本更新及时。第一次见证了在学术论文未发布前就信任的贡献出代码。
DeepDetect ,一个专为深度学习的开源 API 和服务。 DeepDetect 的 API 简单直观、易用、通用和易扩展。
在其他贡献者的帮助下,他集成了 Caffe , XGBoost 和 Tensorflow (很快将完成),并且未对原服务或者 API 修改。
XGBoost 梯度提升法树是深度模型常用的算法。Tensorflow 支持分布式训练模型和数据,并且能很好的支持 LSTM 和 RNNs 神经网络算法。Caffe 擅长处理图像和文本数据。DeepDetect 让你在这些深度学习框架间自由转换。
下面将介绍实现通用深度学习 API 的主要原则。同时也期待大家贡献出一些想法和评价来提高 DeepDetect。
- 创业公司期待构建一个可认证的深度学习的 SaaS API,可扩展,并能快速市场化、产品化;
- 企业期待与已有系统可以无缝衔接,刚开始数据流比较慢,后续模型需要随着数据的增加而进行优化。并且对应的技术可以复制到其他项目中或者部门。
符合上述两个要求的开源项目有搜索引擎 Elasticsearch ,可扩展搜索引擎,清晰的 REST 风格 API 和完全 JSON 化的输入/输出数据结构。
那深度学习 API 集成服务该怎样实现呢?下面给出几点:
- 无需重写:深度学习(机器学习)就像密码学,只需生成一次。无需重写对存在多种深度学习库是非要重要的;
- 无缝转换:开发和产品发布具有相同的环境会加快测试和发布周期,避免出现 bug;
- 简化命令行:简单、人性化的输入/输出格式,比如 JSON 格式。简单即是王道;
- 产品化:专业的机器学习服务生命周期更期待在数据预测,而不是训练模型。
如果有一种通用机器学习服务能融合以上的点,简单且强悍的 API,它将会同时满足开发人员和企业诉求,并且在开发和产品之间无缝切换。它将会采用 JSON 数据格式,用单一框架和 API 统一其他深度学习和机器学习开发库,并隐藏各代码间的内部复杂性。
DeepDetect 机器学习 API 核心部分是资源和数据输入/输出格式。资源过去是指服务器资源,而不是指机器学习服务。此种设计的原因是 GPU 和内存在 POST 机器学习服务作业时是紧缺资源。让他们看看有哪些核心资源:
- 服务器信息:通过 GET 目录 /info 获取服务器信息;
- 机器学习服务管理:通过 PUT(创建一个机器学习服务)、GET(获得一个机器学习服务状态)和 POST(更新一个机器学习服务)目录 /services 进行机器学习服务的管理;
- 模型训练:通过 POST(创建一个新的训练作业)、GET(获取一个训练作业的状态)和 DELETE(取消一个训练作业)目录 /train 进行模型训练;
- 数据预测:通过 POST(发送数据到服务)目录 /predict 进行数据预测。
所以服务包括机器学习服务、模型训练和数据预测,这些服务资源是统计模型上两种主要操作。在这个阶段监督学习服务和无监督学习服务没什么区别。
机器学习的主要参数是输入或预处理、统计学习和最终输出,映入脑海里的是:input,mllib 和 output 三种。mllib 指定支持的机器学习库,input 和 output 不写自明。下面是一个例子,创建一个图像分类的服务:
PUT /services/imageserv { “description”: “image classification service”, “mllib”: “caffe”, “model”: { “repository”: “/path/to/models/imgnet”, “templates”: “../templates/caffe/” }, “parameters”: { “input”: { “connector”: “image” }, “mllib”: { “nclasses”: 1000, “template”: “googlenet” }, “output”: { } }, “type”: “supervised” }
参数一般包括 input,mllib 和 output,监督学习服务和无监督学习服务通过调整输出 connector 设置。input connector 处理输入格式,支持 CSV、libsvm 和 text 等格式,包括图像和特征。mllib 部件指定的是服务创建、训练和预测模型的机器学习库,非常方便的引用各机器学习库的参数,并且保留了参数标志。
下面给出一个 CSV 格式的 input connector 例子:
“input”: { “id”: “Id”, “label”: “Cover”, “separator”: “,”, “shuffle”: true, “test_split”: 0.1 }
下面是一个典型训练模型的 output connector:
“output”: { “measure”: [ “acc”, “mcll”, “f1” ] }
接下来给出一个复杂点的输出,Mustache 格式的输出模版(标准化的 JSON 格式可以转化成任意其他的格式):
{ “network”: { “http_method”: “POST”, “url”: “http://localhost:9200/images/img" }, “template”: “{ {{#body}}{{#predictions}} \”uri\”:\”{{uri}}\”, \”categories\”: [ {{#classes}} { \”category\”:\”{{cat}}\”,\”score\”: {{prob}} } {{^last}},{{/last}}{{/classes}} ] {{/predictions}} {{/body}} }” }
上述模版可以使监督学习分类结果直接输入 Elasticsearch 并生成索引,详情见 http://www.deepdetect.com/tutorials/es-image-classifier 。注意到 network 对象,其 POST 到输出服务器,这个对象也可以用在 input connector 连接远程输入源。
上面的模版是一个典型的 DeepDetect 服务器监督分类 JSON 输出:
“body”: { “predictions”: { “classes”: [ { “cat”: “n03868863 oxygen mask”, “prob”: 0.24278657138347626 }, ], “loss”: 0.0, “uri”: “http://i.ytimg.com/vi/0vxOhd4qlnA/maxresdefault.jpg” }
上述的例子在集成到已存项目管道是不需要“胶水”代码,这很好的满足了许多企业的需求。
下面快速浏览下 mllib 组件,包括 Caffe 和 XGBoost:
// Caffe “mllib”:{ "gpu":true, "net":{ "batch_size":128 }, "solver: { "test_interval":1000, "iterations":16000, "base_lr":0.01, "solver_type":"SGD" } } // XGBoost "mllib": { "iterations": 100, "objective": "multi:softprob" } {1} {1}
对于 Caffe 的例子,服务器使用了 GPU,其他参数包括 solver 和 learning rate 等。对于 XGBoost 例子,参数 iterations 和 objective 被设置。
接下来重要的部分是数据预测,观察机器学习服务生命周期重要的是基于数据进行预测:
curl -X POST 'http://localhost:8080/predict' -d '{"service":"covert","parameters":{"input": {"id":"Id",”separator”:","}},"data":["test.csv"]}'
这里 mllib 部分省略掉了,有时在深度网络中抽取特征时 mllib 是有用的。在非监督学习中是相似的,输出是一个张量,而不是一个类或者回归对象:
"mllib":{"extract_layer":"pool5/7x7_s1"}
最后总结,这歌机器学习 API 的核心点:
- 可读性:所有的数据结构是简单、人性化的;
- 通用性:监督学习服务和无监督学习服务的通用 API;
REST 风格和可编程的 API:这个 API 通过网络获取,但保留 C++ 原有标志; - “虚构”性;能够很容易的学习增加的特征和资源,比如,为多个预测实现服务链。
查看英文原文: A Machine Learning API to rule them all: Caffe, XGBoost and Tensorflow are in a boat…
译者介绍
侠天,专注于大数据、机器学习和数学相关的内容,并有个人公众号:bigdata_ny 分享相关技术文章。
感谢杜小芳对本文的审校。
给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ , @丁晓昀),微信(微信号: InfoQChina )关注我们。
评论