写点什么

英特尔开源分布式深度学习平台 Nauta,使用 Kubernetes 和 Docker 平台运行

  • 2019-01-24
  • 本文字数:1813 字

    阅读完需:约 6 分钟

英特尔开源分布式深度学习平台Nauta,使用Kubernetes 和 Docker 平台运行

1 月 24 日,英特尔发表博文宣布开源其分布式深度学习平台 Nauta。Nauta 使用业界领先的 Kubernetes 和 Docker 平台运行,以实现可扩展性和易管理性。


GitHub 开源地址:https://github.com/intelAI/Nauta


随着越来越多的企业探索在业务中使用 AI 来改善商业模式,AI 继续不断发展。根据 Gartner 最近一份报告显示,AI 部署已经产生巨大实际价值,2022 年价值有望达到 4 万亿美元。AI 中的深度学习也获得快速发展,据德勤一份 2018 年地调查显示,有将近 50% 的受访者表示已经采用了深度学习。虽然业务价值持续增长,并且企业对深度学习的兴趣显而易见,但集成、验证和优化深度学习解决方案仍然是一项复杂,有风险且耗时的工作。这就是英特尔使用 Kubernetes 为分布式深度学习引入 Nauta 开源平台的原因。

Nauta 是什么?

Nauta 提供了一个多用户的分布式计算环境,用于运行深度学习模型训练实验。它可以使用命令行界面、Web UI 和/或 TensorBoard 查看和监控实验结果。你可以使用现有数据集,自己的数据或在线下载的数据创建公共或私人文件夹,更轻松地在团队之间进行协作。


Nauta 使用业界领先的 Kubernetes 和 Docker 平台运行,以实现可扩展性和易管理性。为了让创建和运行单节点和多节点深度学习训练实验更简单,该平台兼容各种深度学习框架和工具的模板包(并可自定义),而无需标准容器环境所需的所有系统开销和脚本。


在模型测试中,Nauta 还支持批量和流式推理,所有工作在一个平台上完成。



(图 1:使用 Nauta 训练并部署深度学习网络)

面向开发人员,支持 Kubernetes 和容器化

英特尔在创建 Nauta 工作流程中考虑到了开发人员和数据科学家。Nauta 是一个企业级堆栈,适用于需要进行深度学习模型训练并在生产中部署团队。使用 Nauta,用户可以在单个或多个工作节点上使用 Kubernetes 定义并进行容器化的深度学习实验,并检查这些实验的状态和结果,以进一步调整和运行其他实验,或准备训练模型进行部署。

Nauta 特性

  • Nauta 使用户能够利用来自经验丰富的机器学习开发人员和运营商的共享最佳实践,而不会牺牲灵活性。

  • 在每个抽象级别,开发人员仍然有机会回退到 Kubernetes 并直接使用原语。

  • Nauta 让新手在有保障的情况下进行实验。精心挑选的组件和直观的用户体验减少了对开源 DL 服务的生产准备,配置和互操作性的担忧。

  • 支持多团队成员协作,作业输入和输出可以在团队成员之间共享,并通过启动 TensorBoard 来查看其他人的工作检查点,帮助调试问题。



(图 2:使用 TensorBoard 和 Nauta WebUI 监控作业)

创建指南

2019 年,Nauta 将在 Q1 及更高版本中进行更新,并通过landing page维护开发者社区,鼓励开发人员和数据科学家在他们自己的堆栈上尝试 Nauta。


有关最新的技术信息,包括安装指南,用户文档以及如何参与项目,参见 Github:https://github.com/intelAI/Nauta


构建 Nauta 安装包并在 Google Cloud Platform 上顺利运行,请关注Google云平台上的Nauta 入门


有关构建 Nauta 包的详细信息,参见如何构建指南


快速启动并运行,请查看入门指南


更多信息,请参阅以下文档:


Nauta、Kubeflow Pipeline、Azure Kubernetes、Acumos AI 对比

Nauta 是可以使用 Kubernetes 或 Docker 容器的最新发布工具,这种方法让从业者在通过内部部署服务器还是云端部署 AI 之间进行选择。


11 月,谷歌推出了一个 Kubernetes 工作流程 Kubeflow Pipeline,而微软上个月在公开预览中推出了 Azure Kubernetes 服务。


Kubeflow Pipeline GitHub:https://github.com/kubeflow/pipelines


Kubeflow 是一个使用 Kubeflow Pipelines SDK 构建的可重复使用的端到端 ML 工作流程,致力于使 Kubernetes 上机器学习工作流的部署简单,可移植和可扩展。


Azure Kubernetes:https://azure.microsoft.com/en-us/services/kubernetes-service/


Azure Kubernetes 简化 Kubernetes 管理、部署和运营,使用完全托管的 Kubernetes 容器编排服务。


另外,Linux 基金会的 LF 深度学习基金也于去年秋季推出了用于深度学习的 Acumos AI 平台和开源框架,可以轻松构建、共享和部署 AI 应用程序,标准化了运行开箱即用的通用 AI 环境所需的基础架构堆栈和组件。


参考链接:


https://venturebeat.com/2019/01/23/heartland-tech-weekly-indie-vcs-funding-model-could-be-promising-for-startups-in-middle-america/


https://www.acumos.org/


https://azure.microsoft.com/en-us/services/kubernetes-service/


2019-01-24 12:116178
用户头像

发布了 98 篇内容, 共 65.9 次阅读, 收获喜欢 285 次。

关注

评论 1 条评论

发布
用户头像
kube-batch inside :)
2019-01-26 18:47
回复
没有更多了
发现更多内容

关于告警,要想做好,从这些方面着手

巴辉特

告警降噪 oncall 告警聚合 告警排班 PagerDuty

影子测试:软件测试的创新策略

FunTester

深度解析HarmonyOS SDK实况窗服务源码,Get不同场景下的多种模板

HarmonyOS SDK

HarmonyOS

用 Higress AI 网关降低 AI 调用成本 - 阿里云天池云原生编程挑战赛参赛攻略

阿里巴巴云原生

阿里云 云原生 Higress

Amazon Bedrock 实践:零基础创建贪吃蛇游戏

亚马逊云科技 (Amazon Web Services)

生成式人工智能

重庆企业选择堡垒机需要考虑哪些因素?有没有推荐的?

行云管家

堡垒机 IT资产 重庆

2024-08-28:用go语言,给定一个从1开始、长度为n的整数数组nums,定义一个函数greaterCount(arr, val)可以返回数组arr中大于val的元素数量。 按照以下规则进行n次

福大大架构师每日一题

福大大架构师每日一题

最新ps2024软件:Photoshop 2024 (Win&Mac)直装版

你的猪会飞吗

mac软件下载 ps2024 PS2024破解

Apache RocketMQ 批处理模型演进之路

阿里巴巴云原生

Apache 阿里云 RocketMQ 云原生

案例研究:如何在复杂环境中增强自组织

ShineScrum

自组织

MES系统的八大核心功能及车间落地实现

万界星空科技

制造业 生产管理系统 mes 万界星空科技 车间管理系统

AI引领,驱动未来:零售企业的新质生产力革命

第七在线

Flink CDC 在新能源制造业的实践

Apache Flink

大数据 flink 实时计算 Flink CDC

BSC发力DEX交易量超过Solana,MEME赛道王者易主?

区块链软件开发推广运营

dapp开发 区块链开发 链游开发 NFT开发 公链开发

面试官:Kafka中的key有什么用?

王磊

BSI最新研究发现,中国企业人工智能投资增长意愿全球领先

财见

阿里巴巴中国站1688商品详情API返回值解析:应对更新与变化的策略

代码忍者

API 测试 API 策略

DTCC2024|HashData Enterprise 4.0 正式发布:构建云原生统一数据处理平台

酷克数据HashData

人工智能 | 清华大学ChatGLM大模型

测试人

人工智能

英特尔开源分布式深度学习平台Nauta,使用Kubernetes 和 Docker 平台运行_AI&大模型_英特尔官博_InfoQ精选文章