
6 月 27 日-6 月 28 日,AICon 全球人工智能开发与应用大会北京站即将拉开帷幕。本次大会将汇聚 AI 前沿技术与落地实践,邀请来自腾讯、阿里、百度、字节跳动等头部大厂以及智谱、硅基流动、智象未来、声智科技等 AI 企业的 50+资深专家,深度探讨 AI Agent、多模态应用、推理性能优化以及 AI 在软件研发、数据分析、业务运营等场景的具体落地实践。
华为昇腾架构师王建辉已确认出席并发表题为《昇腾DeepSeek大模型推理架构》的主题分享。在大模型加速部署进入深水区的今天,如何在国产算力平台上高效运行大模型,已成为影响应用落地的重要一环。本次分享将介绍昇腾 DeepSeek 大模型推理架构,性能优化方案及关键优化措施,以及优化建议。

华为计算产品线昇腾推理架构师王建辉,主要从事昇腾计算推理产品架构设计与竞争力规划,擅长技术领域包括软硬件协同设计,系统性能优化及实时计算。他在本次会议的详细演讲内容如下:
演讲提纲
1. 背景缘由
大模型推理的计算挑战:参数规模持续增长带来的推理延迟、资源瓶颈问题
国产算力平台的适配需求与技术突破窗口
DeepSeek 模型场景需求与推理优化目标设定
2. 昇腾推理解决思路
昇腾芯片架构简述与深度学习模型推理特性匹配分析
昇腾 CANN 生态支持在推理侧的核心能力
DeepSeek 在昇腾平台的部署路径与模块解耦设计思路
3. DeepSeek 推理加速关键技术
大规模专家并行调度优化
集合通信(All2all)优化策略
异构资源调度与算子融合:
4. 效果与总结
推理加速前后主要性能指标对比(吞吐、延迟、资源利用率)
可推广的优化经验总结
对昇腾平台下大模型推理未来演进方向的初步展望
您认为,这样的技术在实践过程中有哪些痛点?
部署相对复杂,需要大并发量才能发挥价值。
您的演讲有哪些前沿亮点?
大规模专家并行
集合通信优化
调度优化
听众收益
基于昇腾的 MoE 推理性能优化方案及关键技术
除此之外,本次大会还策划了AI Agent 构建与多场景实践、多模态实践与应用、大模型助力研发的实战经验、AI 在业务运营中的深度落地、大模型时代的数据处理与分析、AI 变革下的工程师等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在 AICon 北京站现场带来前沿技术洞察和一线实践经验。
现在报名即可以享受 9 折优惠,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。

评论