异构计算在AI领域的应用:为何将触发算力革命?

异构计算在AI领域的应用:为何将触发算力革命?

策划: 赵钰莹

人工智能(AI)的研究已经持续了60多年。最近几年,AI所呈现出的爆发趋势,不单单是因为算法的改进、大数据的积累,更重要的是计算能力的大幅提升和变革。企业和互联网巨头都有自己的算法和数据,但在计算力的获取上一直有比较高的门槛。
随着近年来硅芯片逼近物理的极限和经济成本高升,摩尔定律已趋近失效。使用通用处理器这个传统的方法已无法满足人工智能的各种应用对爆发的和高计算能力的需求。因此,具有GPU、ASIC、 FPGA 或其它加速器(Accelerator)等高并行、高密集的计算能力的异构计算持续火热,而异构计算也将成为支撑先进和以后更复杂AI 应用的必然的选择。

异构计算系列文章(一):定义、场景及局限性
异构计算系列文章(一):定义、场景及局限性

除了算法、模型、框架,算力也是 AI 开发者必须考虑的因素。

异构计算系列(二):机器学习领域涌现的异构加速技术
异构计算系列(二):机器学习领域涌现的异构加速技术

异构计算技术是提升机器学习应用开发流程中“人”与 “机”效率的重要途经。

异构计算系列(三):Adlik在深度学习异构计算上的实践
异构计算系列(三):Adlik 在深度学习异构计算上的实践

在模型应用上,需要使用深度神经网络的推理能力完成网络前向计算。

没有更多了
异构计算在AI领域的应用:为何将触发算力革命?-InfoQ