
Google Research 近日宣布开源 Coral NPU 平台,这是一套面向硬件工程师与 AI 开发者的全栈开源方案,帮助他们克服当前阻碍人工智能在可穿戴设备和边缘设备中落地的瓶颈,包括性能受限、生态碎片化以及用户信任缺失等问题。
Coral NPU 的核心目标,是让全天候 AI 应用能在电池供电的设备上高效运行,同时为高性能场景提供灵活配置选项,实现能耗与算力的平衡。
要让 AI 真正发挥“助理”的作用,比如主动帮用户规划日程、实时翻译对话,或理解所处的物理环境,它必须能够在用户佩戴或携带的设备上本地运行。这一需求带来了根本挑战:如何在电量受限的边缘设备中嵌入环境感知型 AI,让设备脱离云端依赖,从而实现私密、安全、真正全天候的智能体验。
Google 研究人员指出,使用 Coral NPU 构建的硬件设备,能够支持多种 AI 应用场景,包括用户活动与环境感知、音视频处理(如语音识别、实时翻译、人脸识别)以及手势识别等。
在将 AI 融入可穿戴设备和边缘设备的过程中,Coral NPU 平台聚焦解决三大关键问题:
弥合边缘设备有限算力与前沿大模型高需求之间的鸿沟;
缓解设备生态碎片化带来的开发难题,统一不同厂商的专有芯片与硬件环境;
确保用户数据免受未授权访问,强化隐私保护。
在架构层面,Coral NPU 通过反向设计理念重新定义芯片逻辑:不再优先传统的标量计算,而是将重点放在 机器学习矩阵引擎上,从底层硅片开始为 AI 优化,实现更高效的本地推理性能。
在隐私防护方面,Coral NPU 采用 CHERI 等技术手段,通过精细化的内存级安全机制与可扩展的软件隔离体系,构建由硬件强制执行的安全沙箱,确保用户数据安全。
该平台基于符合 RISC-V 指令集架构(ISA) 的一组 IP 模块构建,其基础设计即可在仅消耗数毫瓦功率的情况下,达到每秒 512 GOPS(十亿次运算) 的性能。相比之下,早期的非开源版 Google Coral 可实现 4 TOPS(万亿次运算),但功耗约为 1 瓦。
Coral NPU 平台包含三大核心组件:
管理数据流的标量核心;
兼容 RISC-V 向量指令集的向量执行单元;
用于加速神经网络计算的矩阵执行单元。
在编程层面,Coral NPU 架构与现代 C 编译器(如 IREE 与 TFLM)深度集成,并支持多种机器学习框架,包括 TensorFlow、JAX 和 PyTorch。
为进一步提升性能,Google 研究团队开发了一整套复杂的工具链:使用 TensorFlow、JAX 或 PyTorch 构建的机器学习模型,会先被转换为通用的中间表示(MLIR),再经过多层次的语义降级(progressive lowering),逐步接近硬件底层语言,最终编译为二进制文件,实现高效部署。
值得一提的是,Google Research 还与 Synaptics 合作,共同打造了首款基于这一新架构的物联网处理器,为 Coral NPU 的落地提供了首个样本。
目前,Coral NPU 平台已在 GitHub 开源。
原文链接:
https://www.infoq.com/news/2025/10/google-coral-npu-platform/








评论