
8 月 22 日 -23 日,首届AICon 全球人工智能开发与应用大会深圳站即将拉开帷幕。本次大会将聚焦 Agent、多模态、AI 产品设计等热门方向,围绕企业如何通过大模型降低成本、提升经营效率的实际应用案例,邀请来自阿里、腾讯、字节跳动、微软、华为等头部企业以及商汤、Plaud、Rokid 等 AI 明星公司的专家,分享 AI 落地实战经验。一起探索 AI 应用的更多可能,发掘 AI 驱动业务增长的新路径!
阿里云资深技术专家张凯已确认出席并发表题为《云原生 AI 支撑大模型服务落地的创新与实践》的主题分享。大模型算法和 AI 工程技术的发展日新月异,同时对 AI 基础设施的规模,效率和稳定性提出更多挑战。本话题将介绍,社区基于 Kubernetes、算力调度、数据编排、可观测、AI 网关和微服务等技术,在构建云原生 AI 基础设施方向的最新进展。并以 LLM 推理负载管理和模型服务化管理为例,讨论如何加速大模型能力高效落地,降低企业生产和使用 AI 的门槛。
 
 张凯负责阿里云容器智算产品研发,多年云计算领域研发经历,深耕云原生技术在企业应用、微服务、AI、大数据、高性能计算等众多场景的落地。带领团队开拓云原生 AI 领域,创立 Fluid、Kube-Queue、GPUShare、Arena 等多个相关开源项目。他在本次会议的详细演讲内容如下:
演讲提纲:
- 大模型对 AI Infra 的挑战,云原生 AI 技术如何发展和应对 
- 云原生 AI Infra 的架构和关键技术详解,介绍整体架构和主要技术 - 大规模 GPU 集群稳定性提升,如端到端的故障自愈体系 - 精细化 AI 算力可观测能力,如 GPU 监控和实时 Profiling 技术 - 高弹性 AI 数据处理流水线,如统一调度 Spark、Ray、Slurm on K8s 技术方案 - 数据缓存和模型冷启动优化,如 Fluid 数据集编排和访问加速技术 
- LLM 推理生产落地实践,利用云原生技术构建完整的 LLM 推理服务系统,适配 PD 分离等分布式推理架构,管理推理服务全生命周期,优化推理性能 
听众收益:
- 了解通如何过优化数据访问速度,提升训练效率与推理服务性能 
- 了解如何通过完善 GPU 可观测性和自动化故障处理机制,洞察 GPU 资源效率和 AI 任务性能的波动,以应对集群稳定性挑战 
- 了解如何围绕新的 LLM 推理工作负载,构建完整的 LLM 模型服务架构和技术栈,帮助客户跨越从尝试大模型到生产使用的鸿沟 
除此之外,本次大会还策划了AI Infra、AI 产品研发与商业落地探索、Agent 应用新范式与 MCP 生态实践、AI 驱动业务重塑与提效、智能硬件与具身智能创新实践、AI 原生时代的卓越架构治理、、多模态与空间智能技术创新、Agent + Data 落地探索、AI 赋能研发体系变革、Agent 核心技术与系统架构创新、大模型在金融领域的创新实践等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 70+资深专家在 AICon 深圳站现场带来前沿技术洞察和一线实践经验。
现在报名即可以享受 9 折优惠,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。
 
 







 
    
评论