写点什么

如何在 AWS 上安装使用分布式 TensorFlow

  • 2019-11-19
  • 本文字数:4822 字

    阅读完需:约 16 分钟

如何在AWS上安装使用分布式TensorFlow

前言

近几年来,深度学习得到了长足的发展,伴随着深度学习的发展,深度学习框架也变得越来越为人们所熟知。TensorFlow 是谷歌开源的深度学习框架,自开源以来得到了业界的认可和支持,特别是在 TensorFlow 分布式版本发布以后,更多的深度学习专业人士开始使用 TensorFlow 进行分布式的深度学习研究。


深度学习框架底层需要硬件资源的支持,特别需要 GPU 实例的支持,而 AWS 云端弹性的 GPU 实例无疑是深度学习从业人员手中最灵活的资源。


本文将介绍在 AWS 上使用 GPU 实例安装配置分布式 TensorFlow 的过程,希望可以让读者快速搭建自己的深度学习环境,尽快深入到自己的生产应用中或者是研究领域中。

环境准备

首先我们需要为 TensorFlow 安装准备基础环境,其中包括 AWS 账号的创建,IAM 用户的创建,VPC 的划定等工作。有关这些具体工作的细节在本文就不详细讲述了,这些方面的细节请参考相关博文或者技术文档。


准备好账号之后就需要启动两台 GPU 实例进行设置,考虑到启动实例后需要进行一些软件部署,建议先启动一台 GPU 实例,安装设置好 TensorFlow 之后创建实例的 AMI 镜像,然后通过镜像启动第二台 GPU 实例,这样比较节省时间。


本文以 Ubuntu 作为基础环境,所以在启动实例的时候选择操作系统时选择 Ubuntu 镜像,本例选择的是。


进一步需要做的是选择实例类型,在 AWS 上的 GPU 实例有 G2 和 P2 两种大的类型。


P2 使用了 NVIDIA 的 K80 GPU,实例的具体配置如下:



G2 使用了 NVIDIA 的 K520 GPU,实例具体配置如下:



选择你希望使用的实例类型,然后按照 EC2 启动向导启动该实例。关于 EC2 启动的不同选项请参考相关文档,这里需要留意的是“置放组”选项,如果我们启动多个 EC2 实例运行 TensorFlow 并进行分布式计算,把这些实例放在一个“置放组”内会有效提高实例间的网络通讯效率。


实例启动后通过 ssh 工具连接到该实例上开始安装过程。

安装 TensorFlow

准备好 EC2 实例后,通过 ssh 工具连接到实例上,开始以下安装工作。


因为 TensorFlow 安装需要较长时间,所以建议连接到 EC2 实例上以后通过 screen 命令或者 tmux 命令启动 session 管理,这样安装过程中出现 ssh 连接中断也可以继续完成安装工作。


首先需要安装相关的依赖包,具体命令如下:


sudo apt-get update


sudo apt-get upgrade


sudo apt-get install -y build-essential git python-pip libfreetype6-dev libxft-dev libncurses-dev libopenblas-dev gfortran python-matplotlib libblas-dev liblapack-dev libatlas-base-dev python-dev python-pydot linux-headers-generic linux-image-extra-virtual unzip python-numpy swig python-pandas python-sklearn unzip wget pkg-config zip g++ zlib1g-dev


sudo pip install -U pip


安装完依赖包以后接着安装 CUDA 包,本例中我是直接下载了 CUDA 8.0 的本地 deb 包进行安装,安装命令如下,读者在参考使用以下命令时注意修改对应的 URL 链接和版本号:


wget https://developer.nvidia.com/compute/cuda/8.0/prod/local_installers/cuda-repo-ubuntu1604-8-0-local_8.0.44-1_amd64-deb -O cuda-repo-ubuntu1604-8-0-local_8.0.44-1_amd64.deb


sudo dpkg -i cuda-repo-ubuntu1604-8-0-local_8.0.44-1_amd64.deb


sudo apt-get update


sudo apt-get install cuda


CUDA 安装比较简单,主要时间消耗在下载 CUDA 安装包上。安装了 CUDA 包以后,可以通过 nvidia-smi 命令查看本地的 GPU 设备情况,一方面检查 GPU 硬件情况,一方面也可以确认 CUDA 安装是否成功。


在我的 G2.xlarge 实例上安装 CUDA 并执行 nvidia-smi 命令后输出如下:


+-----------------------------------------------------------------------------+


| NVIDIA-SMI 367.57 Driver Version: 367.57 |


|-------------------------------+----------------------+----------------------+


| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |


| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |


|===============================+======================+======================|


| 0 GRID K520 Off | 0000:00:03.0 Off | N/A |


| N/A 33C P0 1W / 125W | 0MiB / 4036MiB | 0% Default |


+-------------------------------+----------------------+----------------------+


+-----------------------------------------------------------------------------+


| Processes: GPU Memory |


| GPU PID Type Process name Usage |


|=============================================================================|


| No running processes found |


+-----------------------------------------------------------------------------+


安装了 CUDA 后接着安装 CuDNN,安装 CuDNN 需要到 NVIDIA 网站上注册,注册以后才能下载。这里略去注册过程,读者可以自行到以下网站注册:


https://developer.nvidia.com/rdp/cudnn-download


我下载的是 cudnn-8.0-linux-x64-v5.1.tgz 文件,下载后的安装命令如下:


tar -zxf ./cudnn-8.0-linux-x64-v5.1.tgz


sudo cp -R cuda/lib64/* /usr/local/cuda-8.0/lib64


sudo cp cuda/include/cudnn.h /usr/local/cuda-8.0/include/


然后我们需要设置一些环境变量,我将以下配置加入~/.bashrc 文件中,并用 source ~/.bashrc 命令让配置生效。


export CUDA_HOME=/usr/local/cuda-8.0


export CUDA_ROOT=/usr/local/cuda-8.0


export PATH=$PATH:$CUDA_ROOT/bin


export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$CUDA_ROOT/lib64


安装了 NVIDIA 的相关组件后我们还需要安装 bazel,为了安装 bazel,我们需要先安装 java8,具体命令如下:


sudo add-apt-repository ppa:webupd8team/java


sudo apt-get update


sudo apt-get install oracle-java8-installer


安装 java8 会有图形化向导,按照向导指引安装就好了。


安装了 java8 以后执行以下命令安装 bazel:


echo "deb [arch=amd64] http://storage.googleapis.com/bazel-apt stable jdk1.8" | sudo tee /etc/apt/sources.list.d/bazel.list


curl https://storage.googleapis.com/bazel-apt/doc/apt-key.pub.gpg | sudo apt-key add -


sudo apt-get update && sudo apt-get install bazel


sudo apt-get upgrade bazel


经过以上准备,相关的软件都安装配置好了,可以开始编译 TensorFlow 了。


首先把 TensorFlow 项目克隆到本地:


git clone --recurse-submodules https://github.com/tensorflow/tensorflow


接着进入 tensorflow 目录并运行 configure 命令为编译做准备,注意要加上 sudo,否则会出现权限的问题。


cd tensorflow


sudo ./configure


执行./configure会出现文本配置界面,在选择不同选项时几乎可以都使用缺省值,当然在选择是否有 GPU 支持时要选择 Y,然后就是要注意“Cuda compute capability”一项,如果你选择的实例类型是 G2,这里需要输入 3.0,因为 G2 实例使用的 GPU 是 K520,只能支持 Cuda compute capability 3.0。如果你选择的机型是 P2,因为使用的 GPU 是 K80,可以使用缺省的 Cuda compute capability,本例使用的 TensorFlow 版本缺省的是 3.5。


具体选项请参考以下截图:



如果你为 G2 实例类型选择了 3.5 或者更高版本,运行 TensorFlow 时会出现以下错误信息:


Ignoring visible gpu device (device: 0, name: GRID K520, pci bus id: 0000:00:03.0) with Cuda compute capability 3.0. The minimum required Cuda capability is 3.5.


配置好以后通过 bazel 命令编译,注意使用 sudo 命令:


sudo bazel build -c opt --config=cuda //tensorflow/tools/pip_package:build_pip_package


编译需要一段时间,编译完成后使用 buildpippackage 命令为 python 构建 pip 包,以下命令中的/tmp/tensorflow_pkg目录是 pip 包输出的临时文件,可以根据你自己的环境进行调整:


sudo bazel-bin/tensorflow/tools/pip_package/build_pip_package /tmp/tensorflow_pkg


构建了 pip 包以后使用 pip 命令进行安装,注意以下命令中的/tmp/tensorflow_pkg/tensorflow-0.11.0-cp27-cp27mu-linux_x86_64.whl是上一个命令生成的 whl 包文件路径,其中包括了具体的版本号,在你自己编译的时候需要留意这个版本号是否有变化:


sudo pip install /tmp/tensorflow_pkg/tensorflow-0.11.0-cp27-cp27mu-linux_x86_64.whl


以上命令执行完以后就成功安装了 TensorFlow 了,可以开始测试了。

测试与分布式部署

神经网络的测试经常使用 mnist 数据集进行,TensorFlow 中自带了 mnist 的样例,安装好 TensorFlow 以后通过以下命令可以进行测试:


python tensorflow/tensorflow/models/image/mnist/convolutional.py


一切正常的话,很快 convolutional.py 命令就可以执行完成,结束后会输出准确率。


测试结束后,进一步需要做的事情就是分布式部署。如开篇讲到的,在 AWS 上可以使用镜像(AMI)简化新实例启动过程中的安装工作。


基本做法就是选中以上步骤配置的 EC2 实例,然后选择“”操作执行镜像创建的操作。当我们需要启动第二台 GPU 实例时,选择刚创建的镜像进行启动就好了。


启动第二台实例时注意选择第一台实例使用的子网,减少其它因素的干扰。如果对网络性能有特别要求,还可以将两台实例放在同一个“置放组”中,提高两台 GPU 实例之间的网络通讯速度。


另外,如下文所示,TensorFlow 不同进程启动的时候会使用不同的端口,本例使用的是 2222 和 2223 端口。为了让两个 GPU 实例可以通过这些端口通讯,需要设置两个 GPU 实例所使用的安全组,开放 2222,2223,2224 的入站访问。


在 tensorflow 的源代码目录中有个分布式样例文件叫:./tensorflow/tools/dist_test/python/mnist_replica.py,是已经写好的分布式代码。


该 python 程序通过–pshosts 指定参数服务的 IP 和端口,通过–workerhosts 指定工作进程的 IP 地址和端口。


本例中使用的两台 GPU 实例的 ip 地址分布是 172.31.24.117 和 172.31.30.43,我在 172.31.24.117 上运行参数服务器进程,命令如下:


python ./tensorflow/tools/dist_test/python/mnist_replica.py --ps_hosts=172.31.24.117:2222 --worker_hosts=172.31.24.117:2223,172.31.30.43:2223 --job_name=ps --task_index=0


注意这里的参数–job_name=ps 用于指定本进程的角色。


接着在 172.31.24.117 上起第一个 worker 进程,命令如下:


python ./tensorflow/tools/dist_test/python/mnist_replica.py --ps_hosts=172.31.24.117:2222 --worker_hosts=172.31.24.117:2223,172.31.30.43:2223 --job_name=worker --task_index=0


这个命令和第一个启动参数服务器的命令几乎一样,差别就是–job_name=worker 这个参数。


接着在 172.31.30.43 上启动第二个 worker 进程,命令如下


python ./tensorflow/tools/dist_test/python/mnist_replica.py –ps_hosts=172.31.24.117:2222 –worker_hosts=172.31.24.117:2223,172.31.30.43:2223 –job_name=worker –task_index=1


因为都是启动 worker 进程,所以两个启动 worker 进程的命令都是用的 –jobname=worker 参数,关键在于第一个 worker 进程使用 taskindex=0 参数,而第二个 worker 进程使用 task_index=1 参数。


执行以上命令后稍等片刻两个 worker 进程就会开始 mnist 数据集的训练,从日志输出上可以看出两个 worker 进程分别负责了部分样本的训练。

结语

以上就是 AWS 上编译安装 TensorFlow 并执行分布式训练的过程,完成以上环境搭建以后就可以开始你自己的分别式神经网络训练了。


作者介绍:



邓明轩


亚马逊 AWS 解决方案架构师,拥有 15 年 IT 领域的工作经验,先后在 IBM,RIM,Apple 等企业担任工程师、架构师等职位;目前就职于 AWS,担任解决方案架构师一职。喜欢编程,喜欢各种编程语言,尤其喜欢 Lisp。喜欢新技术,喜欢各种技术挑战,目前在集中精力学习分布式计算环境下的机器学习算法。


本文转载自 AWS 技术博客。


原文链接:


https://amazonaws-china.com/cn/blogs/china/tensorflow-on-aws/


2019-11-19 08:00654

评论

发布
暂无评论
发现更多内容

实践GoF的设计模式:迭代器模式

华为云开发者联盟

后端 开发

看我如何用多线程,帮助运营小姐姐解决数据校对系统变慢!

华为云开发者联盟

后端 开发

基于深度学习的裂缝检测技术

阿炜小菜鸡

8月月更 裂缝监测

数据湖(一):数据湖概念

Lansonli

数据湖 8月月更

数据湖(二):什么是Hudi

Lansonli

数据湖 8月月更

软件成分分析:手握5大能力守护软件供应链安全

华为云开发者联盟

云计算 安全 华为云

如何通过DBeaver 连接 TDengine?

TDengine

数据库 tdengine Dbeaver

节省50%成本!京东云重磅发布新一代混合CDN产品

京东科技开发者

云计算 CDN DDoS 混合云

分享一个Chrome控制台数据获取的例子

睡着了去做梦

Go Chrome开发者工具

Spring Session

武师叔

8月月更

Mysql 基本操作指南之mysql查询语句

六月的雨在InfoQ

8月月更

【云原生】jenkins部署docker镜像到远程服务器

青芒果

云原生 CODING Linxu docekr 8月月更

IIR数字滤波器设计(数字信号处理)

Five

matlab 过滤器 8月月更

二极管及其应用

厉昱辰

电子技术 8月月更

太厉害了!腾讯T4大牛把《数据结构与算法》讲透了,带源码笔记

冉然学Java

编程 算法 排序 java\ 数据结构与算法、

主流跨端技术一览

Speedoooo

前端框架 小程序容器

SpringBoot 发送邮件

开源 SpringBoot 2 8月月更

C语言结构体(入门)

孤衫

编程语言 C语言 结构体 8月月更

Spring Controller

武师叔

8月月更

七日算法先导(二)——双指针

工程师日月

8月月更

前端面试高频20道手写题

helloworld1024fd

如何在Linux中不解压就能查看压缩包中的内容,这13个命令非常强!

wljslmz

Linux 签约计划第三季 8月月更

数据湖(三):Hudi概念术语

Lansonli

数据湖 8月月更

wx-wow(微信小程序动效库)

Five

微信小程序 动画效果 8月月更

ABAP-OOAVL模板程序

桥下本有油菜花

abap

前端面试高频20道手写题(二)

helloworld1024fd

技术分享| 融合调度系统中的电子围栏功能说明

anyRTC开发者

音视频 快对讲 语音对讲 视频对讲 电子围栏

面试SQL语句,学会这些就够了!!!

程序员猪小哼

sql 实用SQl语句

基于深度学习的图像检索方法!

Geek_e369a5

图像搜索 图像检索

玉溪卷烟厂通过正确选择时序数据库 轻松应对超万亿行数据

TDengine

数据库 tdengine 时序数据库

中原银行实时风控体系建设实践

Apache Flink

大数据 flink 编程

如何在AWS上安装使用分布式TensorFlow_语言 & 开发_亚马逊云科技 (Amazon Web Services)_InfoQ精选文章