
谷歌云宣布 NVIDIA GPU 支持 Cloud Run(无服务器运行时)的全面可用性。通过这一增强功能,谷歌云旨在为广泛的 GPU 加速用例,特别是在 AI 推理和批处理方面,提供一个功能强大且成本效益显著的环境。
在一篇公司的博客文章中,谷歌强调,开发人员青睐 Cloud Run,因为它简单、灵活且可扩展。随着对 GPU 支持的增加,它现在将其核心优势扩展到 GPU 资源:
按秒计费:用户现在只需根据他们消耗的 GPU 资源付费,精确到秒——从而最大限度地减少浪费。
缩放到零:Cloud Run 在非活动状态下自动将 GPU 实例缩放到零,消除空闲成本——对于间歇性或不可预测的工作负载尤其有益。
快速启动和扩展:带有 GPU 和驱动程序的实例可以在 5 秒内启动,使应用程序能够非常快速地响应需求。
完整的流支持:对 HTTP 和 WebSocket 流的内置支持允许交互式应用程序,例如实时 LLM 响应。
NVIDIA 加速计算产品总监 Dave Salvator 评论道:
无服务器 GPU 加速代表了使尖端 AI 计算更易于访问的重大进步。通过无缝访问 NVIDIA L4 GPU,开发人员现在可以比以往任何时候都更快、更经济地将 AI 应用程序投入生产。
一个重要的入门障碍已经被移除,因为 Cloud Run 上的 NVIDIA L4 GPU 支持现在对所有用户开放,无需请求配额。开发人员可以通过简单的命令行标志(--gpu 1)或在谷歌云控制台中勾选一个框来启用 GPU 支持。
支持 GPU 的 Cloud Run 已经可以投入生产,由 Cloud Run 的服务水平协议(SLA)覆盖,以确保可靠性和正常运行时间。默认情况下,它为弹性提供了区域冗余,并在区域性故障时提供最佳努力故障转移的选项,通过关闭区域冗余,以降低价格。
在 Cloud Run 上对 GPU 的普遍支持也引发了开发者社区关于其竞争影响的讨论,特别是与其他主要云提供商的关系。ZenRows 的首席软件工程师 Rubén del Campo强调,谷歌的举动是“AWS 多年前就应该打造的东西:真正有效的无服务器 GPU 计算。”
他的观点突出了对 AWS Lambda 能力的“巨大差距”的感知,特别指出 Lambda 的 15 分钟超时和仅限 CPU 计算对于现代 AI 工作负载(如 Stable Diffusion 推断、模型微调或实时视频分析)来说是令人难以接受的。“尝试在 Lambda 中运行 Stable Diffusion 推理,微调模型或使用 AI 处理视频。这是不可能的,”一位用户评论道,并强调 Cloud Run GPU 使这些任务“在缩放到零的无服务器 GPU 上变得微不足道”。
虽然 Cloud Run gpu 提供了引人注目的功能,但一些 Hacker News帖子上的用户对缺乏硬性计费限制表示担忧,这可能会导致意想不到的成本。虽然 Cloud Run 允许设置最大实例限制,但它不提供实际的基于美元的支出上限。
此外,在同一个 Hacker News帖子上的比较也表明,其他提供商,如 Runpod.io 可能会为类似的 GPU 实例提供更有竞争力的价格。例如,一些用户指出,即使考虑到谷歌的按秒计费,Runpod 的 L4、A100 和 H100 GPU 的小时费率也可能明显低于谷歌的小时费率。
除了实时推理,谷歌还宣布 GPU 在Cloud Run作业上的可用性(目前处于私有预览阶段),为批处理和异步任务解锁了新的用例。这些功能在全球范围内得到支持,Cloud Run GPU 可在五个谷歌云区域使用:us-central1(美国爱荷华州)、european -west1(比利时)、european -west4(荷兰)、asia-southeast1(新加坡)和 asia-south1(印度孟买)。规划增加更多的区域。
最后,该公司表示,开发人员可以通过利用官方文档、快速入门和优化模型加载的最佳实践来开始构建 Cloud Run GPU。
原文链接:
https://www.infoq.com/news/2025/06/google-cloud-run-nvidia-gpu/
评论