
5 月 23 日-24 日,AICon 全球人工智能开发与应用大会上海站即将拉开帷幕。本次大会将聚焦 AI 技术的前沿突破与产业落地,围绕 AI Agent、多模态应用、大模型架构创新、推理性能优化、大模型驱动数据创新、AI 产品创新与出海策略等核心议题,呈现技术与应用融合的最新趋势。
GMI Cloud 亚太区总裁 King 已确认出席 AICon 上海并在企业全球化发展的策略路径专题发表题为《GMI Cloud 全球化高性能分布式推理服务构建实践》的主题分享。AI 应用全球化浪潮下, 推理效率与算力供给成为破局关键。本次演讲以 GMI Cloud Inference Engine 为锚点,拆解其高并发、低延迟、动态扩缩容能力如何支撑全球 AI 业务爆发,深度分享 GMI Cloud 自研推理平台的架构设计、跨区域合规部署及软硬协同优化实践,揭秘其实现推理成本、指数级效率提升的关键路径。
GMI Cloud 亚太区总裁 King 拥有 14+ 年云计算经验,历经产品研发、解决方案、销售管理。是前阿里云资深总监,带领团队完成年销售额数百亿 RMB;中国云计算早期开拓者,前百度云创始团队成员。不仅拥有丰富且敏锐的商业洞察力和丰富的行业解决方案经验,还拥有深刻的云计算技术理解力和发展趋势判断力。他在本次会议的详细演讲内容如下:
演讲提纲:
1. AI 应用爆发背景下模型推理服务的核心挑战分析
2. GMI Cloud 推理优化技术分享
单集群内推理服务自动扩容技术
跨集群跨地区的推理服务自动扩容技术
单集群的 PD 分离技术
基于共享持久化存储的跨集群 PD 分离技术
推理参数自动化评测工具介绍
推理服务全面主动监控技术
推理服务的自动容错恢复
3. GMI Cloud Inference Engine 落地实践
听众收益:
明晰 AI 应用爆发时,模型推理服务在效率与算力上存在核心挑战
深度了解 GMI Cloud 的推理优化技术,如自动扩容、PD 分离、评测监控及容错恢复等
知悉 GMI Cloud Inference Engine 如何动态应对高并发,保障数据处理,精准评估与监控推理服务
复制 GMI Cloud Inference Engine 的优秀实践到自身业务中
除此之外,本次大会还策划了AI Agent 构建及多元应用、多模态大模型创新实践、AI for Data,数据管理与价值挖掘实践、大模型推理性能优化策略、AI 产品设计的创新思维、智能硬件与大模型的融合探索、金融领域大模型应用实践、大模型助力业务提效实践等专题,届时将有来自不同行业、不同领域、不同企业的 60+资深专家在 AICon 上海站现场带来前沿技术洞察和一线实践经验。
现在报名即可以享受 9 折优惠,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。

评论