昇腾 DeepSeek 大模型推理架构|AICon 北京

  • 2025-06-10
    北京
  • 本文字数:931 字

    阅读完需:约 3 分钟

6 月 27 日-6 月 28 日,AICon 全球人工智能开发与应用大会北京站即将拉开帷幕。本次大会将汇聚 AI 前沿技术与落地实践,邀请来自腾讯、阿里、百度、字节跳动等头部大厂以及智谱、硅基流动、智象未来、声智科技等 AI 企业的 50+资深专家,深度探讨 AI Agent、多模态应用、推理性能优化以及 AI 在软件研发、数据分析、业务运营等场景的具体落地实践。

华为昇腾架构师王建辉已确认出席并发表题为《昇腾DeepSeek大模型推理架构》的主题分享。在大模型加速部署进入深水区的今天,如何在国产算力平台上高效运行大模型,已成为影响应用落地的重要一环。本次分享将介绍昇腾 DeepSeek 大模型推理架构,性能优化方案及关键优化措施,以及优化建议。

华为计算产品线昇腾推理架构师王建辉,主要从事昇腾计算推理产品架构设计与竞争力规划,擅长技术领域包括软硬件协同设计,系统性能优化及实时计算。他在本次会议的详细演讲内容如下:

演讲提纲

1. 背景缘由

  • 大模型推理的计算挑战:参数规模持续增长带来的推理延迟、资源瓶颈问题

  • 国产算力平台的适配需求与技术突破窗口

  • DeepSeek 模型场景需求与推理优化目标设定

2. 昇腾推理解决思路

  • 昇腾芯片架构简述与深度学习模型推理特性匹配分析

  • 昇腾 CANN 生态支持在推理侧的核心能力

  • DeepSeek 在昇腾平台的部署路径与模块解耦设计思路

3. DeepSeek 推理加速关键技术

  • 大规模专家并行调度优化

  • 集合通信(All2all)优化策略

  • 异构资源调度与算子融合:

4. 效果与总结

  • 推理加速前后主要性能指标对比(吞吐、延迟、资源利用率)

  • 可推广的优化经验总结

  • 对昇腾平台下大模型推理未来演进方向的初步展望

您认为,这样的技术在实践过程中有哪些痛点?

  • 部署相对复杂,需要大并发量才能发挥价值。

您的演讲有哪些前沿亮点?

  • 大规模专家并行

  • 集合通信优化

  • 调度优化

听众收益

  • 基于昇腾的 MoE 推理性能优化方案及关键技术

除此之外,本次大会还策划了AI Agent 构建与多场景实践多模态实践与应用大模型助力研发的实战经验AI 在业务运营中的深度落地大模型时代的数据处理与分析AI 变革下的工程师等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 50+资深专家在 AICon 北京站现场带来前沿技术洞察和一线实践经验。

现在报名即可以享受 9 折优惠,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。