写点什么

谷歌 Cloud Run 现在为 AI 和批处理提供了无服务器 GPU

  • 2025-06-11
    北京
  • 本文字数:1398 字

    阅读完需:约 5 分钟

大小:687.28K时长:03:54
谷歌Cloud Run现在为AI和批处理提供了无服务器GPU

谷歌云宣布 NVIDIA GPU 支持 Cloud Run(无服务器运行时)的全面可用性。通过这一增强功能,谷歌云旨在为广泛的 GPU 加速用例,特别是在 AI 推理和批处理方面,提供一个功能强大且成本效益显著的环境。

 

在一篇公司的博客文章中,谷歌强调,开发人员青睐 Cloud Run,因为它简单、灵活且可扩展。随着对 GPU 支持的增加,它现在将其核心优势扩展到 GPU 资源:

 

  • 按秒计费:用户现在只需根据他们消耗的 GPU 资源付费,精确到秒——从而最大限度地减少浪费。

  • 缩放到零:Cloud Run 在非活动状态下自动将 GPU 实例缩放到零,消除空闲成本——对于间歇性或不可预测的工作负载尤其有益。

  • 快速启动和扩展:带有 GPU 和驱动程序的实例可以在 5 秒内启动,使应用程序能够非常快速地响应需求。

  • 完整的流支持:对 HTTP 和 WebSocket 流的内置支持允许交互式应用程序,例如实时 LLM 响应。

 

NVIDIA 加速计算产品总监 Dave Salvator 评论道:

 

无服务器 GPU 加速代表了使尖端 AI 计算更易于访问的重大进步。通过无缝访问 NVIDIA L4 GPU,开发人员现在可以比以往任何时候都更快、更经济地将 AI 应用程序投入生产。

 

一个重要的入门障碍已经被移除,因为 Cloud Run 上的 NVIDIA L4 GPU 支持现在对所有用户开放,无需请求配额。开发人员可以通过简单的命令行标志(--gpu 1)或在谷歌云控制台中勾选一个框来启用 GPU 支持。

 

支持 GPU 的 Cloud Run 已经可以投入生产,由 Cloud Run 的服务水平协议(SLA)覆盖,以确保可靠性和正常运行时间。默认情况下,它为弹性提供了区域冗余,并在区域性故障时提供最佳努力故障转移的选项,通过关闭区域冗余,以降低价格。

 

在 Cloud Run 上对 GPU 的普遍支持也引发了开发者社区关于其竞争影响的讨论,特别是与其他主要云提供商的关系。ZenRows 的首席软件工程师 Rubén del Campo强调,谷歌的举动是“AWS 多年前就应该打造的东西:真正有效的无服务器 GPU 计算。”

 

他的观点突出了对 AWS Lambda 能力的“巨大差距”的感知,特别指出 Lambda 的 15 分钟超时和仅限 CPU 计算对于现代 AI 工作负载(如 Stable Diffusion 推断、模型微调或实时视频分析)来说是令人难以接受的。“尝试在 Lambda 中运行 Stable Diffusion 推理,微调模型或使用 AI 处理视频。这是不可能的,”一位用户评论道,并强调 Cloud Run GPU 使这些任务“在缩放到零的无服务器 GPU 上变得微不足道”。

 

虽然 Cloud Run gpu 提供了引人注目的功能,但一些 Hacker News帖子上的用户对缺乏硬性计费限制表示担忧,这可能会导致意想不到的成本。虽然 Cloud Run 允许设置最大实例限制,但它不提供实际的基于美元的支出上限。

 

此外,在同一个 Hacker News帖子上的比较也表明,其他提供商,如 Runpod.io 可能会为类似的 GPU 实例提供更有竞争力的价格。例如,一些用户指出,即使考虑到谷歌的按秒计费,Runpod 的 L4、A100 和 H100 GPU 的小时费率也可能明显低于谷歌的小时费率。

 

除了实时推理,谷歌还宣布 GPU 在Cloud Run作业上的可用性(目前处于私有预览阶段),为批处理和异步任务解锁了新的用例。这些功能在全球范围内得到支持,Cloud Run GPU 可在五个谷歌云区域使用:us-central1(美国爱荷华州)、european -west1(比利时)、european -west4(荷兰)、asia-southeast1(新加坡)和 asia-south1(印度孟买)。规划增加更多的区域。

 

最后,该公司表示,开发人员可以通过利用官方文档快速入门优化模型加载的最佳实践来开始构建 Cloud Run GPU。

 

原文链接:

https://www.infoq.com/news/2025/06/google-cloud-run-nvidia-gpu/

2025-06-11 11:063576

评论

发布
暂无评论

星云低代码:低代码不再是平台,而是“中间件”

星云低代码中间件

低代码 中间件 企业应用 可视化开发

校招新人如何用文心快码让Landing期不再尴尬

Comate编码助手

职场新人 AI辅助编程 AI 代码助手 文心快码

Apache DolphinScheduler DataX 数据集成:新手入门全攻略

白鲸开源

大数据 Apache DolphinScheduler 数据集成 DataX 数据调度

Apache Flink:从实时数据分析到实时AI

Apache Flink

flink AI 实时计算

Mysql如何迁移数据库数据

秃头小帅oi

从v3.1到v4.3,OceanBase稳定支撑快手PB级核心业务场景

老纪的技术唠嗑局

运维 数据库设计 OceanBase 社区版 mysql'

基于开发者空间OpenGauss数据库的分区表项目实践

华为云开发者联盟

opengauss 华为开发者空间

迈出万物互联的一小步:仓颉版TCPGroupChat群聊实现

华为云开发者联盟

仓颉 华为开发者空间

企业级远程控制方案如何选?贝锐向日葵、ToDesk、AnyDesk、RayLink对比

科技热闻

利用NLU标签优化ASR重评分模型

qife122

语音识别 自然语言理解

技术文档 | 使用 Pulsar Functions 构建实时 AI Pipeline

AscentStream

Machine Learning pulsar

DApp极速开发指南:7天搞定Solidity合约+React前端全栈实战

区块链软件开发推广运营

交易所开发 dapp开发 链游开发 代币开发 交易所开发公链开发

告别碎片化输入:TextIn xParse如何为RAG打造「零损耗」知识管道

合合技术团队

人工智能 算法 #大数据

日均处理 PB 级数据,基于 DolphinScheduler 的离线数据治理平台实现精准血缘追踪

白鲸开源

大数据 开源 数据治理 Apache DolphinScheduler 血缘分析

三天接入,零重构:低代码中间件的快速集成机制全解析

星云低代码中间件

ide 低代码 企业应用 可视化编程

程序员专属秋日养生指南(Coding版),文内有秋天第一杯奶茶

Comate编码助手

程序员 文心快码 秋天的第一杯奶茶 程序员养生

中国 Apache 项目 OpenRank 排行榜 Top 20:白鲸开源深度参与两大上榜项目

白鲸开源

开源 Apache DolphinScheduler Apache SeaTunnel 白鲸开源 Apache软件基金会

单存储节点支持700+ GPU训练!华瑞指数云首秀登顶MLPerf全球存力榜

科技热闻

JNPF 6.0 +AI,低代码开发新体验

引迈信息

这个仓库堪称造轮子的鼻祖,建议看看!

Immerse

合规交易所架构设计:冷热钱包隔离+zk-KYC方案

区块链软件开发推广运营

交易所开发 dapp开发 链游开发 公链开发 代币开发

使用 Apache DolphinScheduler 构建和部署大数据平台,将任务提交至 AWS 的实践经验

白鲸开源

云计算 AWS Apache DolphinScheduler 思科 EKS

教师如何规划教学与科研协同发展|北京理工大学医工交叉教学实践分享(5)

ModelWhale

AI教育 科研 北京理工大学

深入底层:如何优雅部署 SeaTunnel 分离集群到 Kubernetes

白鲸开源

大数据 开源 Kubernetes 部署 Apache SeaTunnel

品牌出海的隐形风险:海外舆情监测你真的会用吗?

沃观Wovision

数据分析 出海企业 沃观Wovision 舆情监测系统

镜舟科技受邀出席开源赋能金融创新论坛,共同推动金融行业开源技术规范发展

镜舟科技

金融创新 分析型数据库 开源治理 镜舟科技 MPP 架构

硅空位中心实现量子网络化的新突破

qife122

量子技术 硅空位中心

基于华为开发者空间,仓颉宏实现语言集成查询LINQ

华为云开发者联盟

opengauss 华为开发者空间

从《中国开源年度报告》看中国开源力量的十年变迁中,Apache SeaTunnel 的跃迁

白鲸开源

大数据 开源 Apache SeaTunnel Apache软件基金会 OpenRank

WAIC2025 | 澳鹏(中国)精彩亮相2025世界人工智能大会

澳鹏Appen

世界人工智能大会 WAIC WAIC2025

[鸿蒙征文]钢琴和弦小工具

大展红图

鸿蒙 音乐 HarmonyOS HarmonyOS NEXT 钢琴

谷歌Cloud Run现在为AI和批处理提供了无服务器GPU_AI&大模型_Steef-Jan Wiggers_InfoQ精选文章