
摘要:
GMI Cloud 将在 7 月 26 日-29 日参加 WAIC 2025,展位活动惊喜多多,技术演讲、OpenTalk、直播间,技术专家们输出行业干货多多!
作为全球领先的 AI Native Cloud 服务商,GMI Cloud 近日正式成为全球六大 Reference Platform NVIDIA Cloud Partner 之一 ,并将亮相 2025 世界人工智能大会(WAIC),于 7 月 26 - 29 日 在世博展览馆核心主展区打造沉浸式技术体验空间,并在 FUTURE TECH 创新企业展区进行技术分享和生态交流。
此次参展,GMI Cloud 将全方位展示其自主研发的 AI 基础设施产品矩阵,并通过产品展示、舞台演讲、技术 Opentalk、技术体验、联合直播发布等多元形式,与全球开发者、AI 企业及生态伙伴共同探索全球 AI 算力的新图景。
GMI Cloud 全栈产品矩阵展示和沉浸式技术体验
从代码到咖啡的 AI 交互之旅
GMI Cloud 展位(展位号:H1 核心技术馆-A122)将集中呈现三大核心产品:
1. Cluster Engine:作为 GMI Cloud 自主研发的云管理系统,其可优化资源调度,提供灵活、高效的集群管理解决方案。
2. Inference Engine:基于 GMI Cloud 全栈自研的推理引擎云平台,通过芯片级算子优化与动态负载调度,实现 AI 推理性能倍增和弹性伸缩。
3.AI Native Cloud:数据中心覆盖全球,与 NVIDIA 深度合作,提供基于高端芯片的 GPU 云服务。灵活的公有云服务+定制化私有云服务,根据企业需求量身提供 AI 基础设施服务,确保数据安全与性能最优化。
值得一提的是,GMI Cloud 合作伙伴 DDN 也将在此进行展出。DataDirect Networks (DDN) 是一家总部位于美国的存储及数据管理解决方案提供商。公司服务于全球超过 11,000 家最终用户,涵盖人工智能(AI)与数据分析、智算中心、互联网及云服务、大规模商业应用、高性能计算(HPC)、政府和学术界等多个领域。DDN 的主要产品包括广泛应用于全球 AI 市场的 A³I 存储系列,以及最新推出的 ES400X3 高容量全闪存和混闪解决方案。这些产品广泛用于全球的大模型训练、自动驾驶、智算中心基础建设平台,并被知名高校、科研院所、超算中心及多个行业的企业所采用。
GMI Cloud 与 DDN 携手推出联合 AI 基础设施解决方案,专为要求最严苛的工作负载而设计。从模型训练到实时推理,提升 AI 研发效率,让您专注于 AI 应用创新。
GMI Cloud 与 DDN 的联合解决方案:GMI Cloud 集成 DDN 高性能、AI 优化存储系统,为大规模 AI 和高性能计算(HPC)工作负载提供无与伦比的数据吞吐量和可靠性。
动态可扩展性:无论向上还是向外扩展,我们都确保性能、正常运行时间和响应能力。
可定制架构:定制计算和存储资源,平衡性能与成本效率。
此外,在 GMI Cloud 展位,我们将为大家开放 Inference Engine 的产品体验,包括推理引擎平台以及 Benchmark 调优平台。不仅可以体验到基于高性能芯片推理引擎平台的热门模型,还可以在 Benchmark 调优平台上,直接完成模型评测和推理性能指标评测,让用户能够快速识别最具成本效益且高性能的配置方案。如果你目前有开发 AI 应用的想法,在现场用 2 分钟便可计算出将付出的时间成本和经济成本及满足个人需求的成本方案。
届时,GMI Cloud 展位上的咖啡互动活动也一定会让你眼前一亮。体验前沿技术的同时,还可以品尝到定制香浓咖啡,更有其他趣味互动环节,万千礼物池与君相约,让你仿佛置身于一个充满惊喜的“科技互动游乐场”,欢迎大家来探展、交流!

GMI Cloud 两位专家大咖分享 AI 前沿技术实践
从 AI 推理应用需求到平台技术架构解析
GMI Cloud 被邀参与 WAIC 2025 FUTURE TECH 舞台演讲和 OpenTalk,为大家带来前沿技术分享和精彩观点交流。
在舞台演讲环节,GMI Cloud 亚太区总裁 King Cui 将以 GMI Cloud Inference Engine 为锚点,拆解其高并发、低延迟、动态扩缩容能力如何支撑全球 AI 业务爆发,深度分享 GMI Cloud 自研推理平台的架构设计、跨区域合规部署及软硬协同优化实践,揭秘其实现推理成本、指数级效率提升的关键路径。
在 OpenTalk 环节,GMI Cloud 技术 VP 将进行主题为《GMI Cloud Inference Engine 在全球范围内的大规模集群调度和优化》的分享,将深度拆解该引擎面对热门大模型推理优化架构逻辑和技术实践;介绍基于 Dynamo 的推理引擎实施 P/D 分离的具体架构设计过程,分析分离前后的性能变化,以及这种实践在优化推理过程中的重要作用;同时与大家一起探讨 KVCache 的池化策略,说明 GMI Cloud Inference Engine 是如何通过优化访存方式提高数据访问效率,减少推理过程中的延迟,提升整体性能的。
GMI Cloud 与 36 氪研究院院长 圆桌对话“AI 出海新趋势”
从行业洞察到 AI 算力新范式
在大会期间,GMI Cloud 将参与 36 氪✖️WAIC 现场直播间,36 氪研究院院长邹萍将与 GMI Cloud 亚太区总裁 King Cui 进行面对面对话,共同分析 AI 应用出海市场的现状和商业趋势。
GMI Cloud 作为行业内的知名云服务提供商,在全球云计算领域拥有丰富的经验和广泛的影响力。亚太区总裁 King Cui 对于 AI 技术和云计算海外市场方面有着深刻的见解和认知。而 36 氪研究院院长邹萍则凭借其在科技行业研究领域的深厚积累,对 AI 应用出海的市场动态、政策环境以及用户需求等方面有着精准的把握。
两位专家将凭借其专业知识和行业洞察,进行一场深度的思想碰撞,帮助 AI 应用出海企业、投资者以及所有相关领域从业者走在 AI 出海行业前沿。
关于 GMI Cloud
由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,拥有遍布全球的数据中心网络,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。
GMI Cloud 凭借高稳定性的技术架构、强大的 GPU 供应链以及令人瞩目的 GPU 产品阵容(如拥有 AI 强大算力的 H100、能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 B200 等),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研“Cluster Engine”、“Inference Engine”两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。
作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。
评论