谷歌公布了 TPU(优化了 TensorFlow 的 ASIC)的更多细节

  • Dylan Raithel
  • 足下

2016 年 7 月 3 日

话题:GoogleAITensorFlow

继 Google CEO Sundar Pichai早些在 Google I/O大会上公布了 TPU(Tensor Processing Unit, 张量处理单元)的研发之后,最近 Google 的硬件工程师 Norm Jouppi 又公布了 TPU 的若干细节

TPU 为了更好的用 TensorFlow(TF)来实现机器学习功能而特意优化了ASIC,降低了计算精度以减少完成每个操作所需要的晶体管数量。目前为止 Google 还没有提供性能测试数据,但 Google 声称这些优化有助于提高芯片每秒钟处理的操作数量。

Google 表示这个项目几年前就已经开始了,而且它的技术领先了当前业界水平整整七年,但 Google 并没有向社区提供可供分析的数据。Jouppi 说只需 22 天就可以完成这种芯片从原型测试到数据中心部署的完整流程。这也是 Google 将研究成果应用于实际生活的又一个例子。

大家关心的问题集中于 TPU 与大家熟悉的东西之间有何异同,比如 Nvidia 的 Telsla P100等芯片,或者 PaaS 提供者Nervana提供的机器学习服务等。Google 公布的信息中表示 TPU 也许可以与 Nvidia 四月份发布的 Tesla P100 芯片相类比。

最近有消息说 Google 在自行研发和生产芯片,并分析了对 Intel 等业界龙头公司的潜在影响。Jouppi提到Google 实际上想要引领的是机器学习领域,并且要让客户享受到这些变革带来的好处,但他这一次没有给出更细节的计划及内容。

在原贴的评论中有人提到 TPU 有可能会取代 Nvidia 的P100TX1,以及IBM的 TrueNorth,但没有给出详细的评测数据和对比。Google 已经将 TPU 用于许多内部项目,如机器学习系统RankBrain、Google街景、以及因为在二月份的围棋比赛中击败韩国大师李世石而声名鹊起的AlphaGo等。但 Google 没有给出将 TPU 应用于外部项目的计划。

查看英文原文Google Details New TensorFlow Optimized ASIC


感谢张龙对本文的审校。

给 InfoQ 中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ@丁晓昀),微信(微信号:InfoQChina)关注我们。

GoogleAITensorFlow