写点什么

Mooncake:面向长上下文的 KVCache 中心化推理优化方案|AICon 深圳

  • 2025-08-01
    北京
  • 本文字数:1552 字

    阅读完需:约 5 分钟

大小:838.20K时长:04:46
Mooncake:面向长上下文的 KVCache 中心化推理优化方案|AICon 深圳

8 月 22 日 -23 日,首届AICon 全球人工智能开发与应用大会深圳站即将拉开帷幕。本次大会将聚焦 Agent、多模态、AI 产品设计等热门方向,围绕企业如何通过大模型降低成本、提升经营效率的实际应用案例,邀请来自阿里、腾讯、字节跳动、微软、华为等头部企业以及商汤、Plaud、Rokid 等 AI 明星公司的专家,分享 AI 落地实战经验。一起探索 AI 应用的更多可能,发掘 AI 驱动业务增长的新路径!


阿里云高级技术专家马腾已确认出席并发表题为Mooncake:面向长上下文的 KVCache 中心化推理优化方案的主题分享。随着大模型应用的普及,推理过程中的高计算资源消耗和 KVCache(键值缓存)的冗余存储成为关键瓶颈,导致推理成本高昂、吞吐量受限,尤其在长上下文场景中表现尤为突出。Mooncake 项目通过创新的以 KVCache 为中心的“PD 分离”架构(计算与存储解耦)和“以存换算”设计,将 KVCache 池化共享,结合高性能传输技术(如 eRDMA、GPUDirect)和分布式存储优化,实现跨实例的资源复用。


Mooncake 项目包括三大创新点:(1)Transfer Engine:支持全链路零拷贝、多网卡聚合(8×400Gbps),兼容 eRDMA/NVLink/CXL,动态拓扑感知。(2)KVCache Store:利用 GPU 闲置内存与 RPC 框架 coro_rpc,实现透明多级缓存,未来支持廉价存储下沉。(3)生态整合:与 vLLM/SGLang 等主流推理框架适配,TPOT 下降 20%,成本低至 0.2$/1M Token。在多轮对话,长文本阅读等场景中,推理吞吐量显著提升,响应时间降低 69.1%,并被阿里云、蚂蚁集团等企业实际部署。



马腾现任阿里云高级技术专家,于 2021 年 6 月在清华大学获得计算机博士学位。于 2021 年 7 月至 2023 年 11 月期间,在阿里云联合中科院自动化所博士后工作站从事数据中心解耦相关研究。马腾目前担任阿里云基础软件部门的高级技术专家,主要从事 AI 基础设施在新硬件环境下国产化的研究工作,以及国产化硬件如何优化大模型服务系统,其中 CXL-SHM 是国内高速总线领域第一个开源项目,另一个开源项目 Mooncake 被阿里 / 蚂蚁 / 腾讯等多家企业使用。在 SOSP, ASPLOS, ATC, SC, INFOCOM, VLDB, TPDS 等顶级会议上发表论文二十余篇,相关成果授权美国 / 中国专利十余项。入选 CCF 系统软件专委会优秀博士论文激励计划,担任 PPoPP, FAST, ICME, DASFAA, TPDS, TC, JSC 等国际会议 / 期刊的程序委员会成员和审稿人。他在本次会议的详细演讲内容如下:


演讲提纲:

1、引言

  • 大模型推理的挑战:成本、吞吐与长上下文瓶颈

  • Mooncake 项目的产学研背景与开源意义

2、核心技术解析

  • PD 分离架构:计算与存储解耦的设计哲学

  • KVCache 池化:共享机制与性能优化

  • Transfer Engine:eRDMA/GPUDirect 的高效传输实现

3、行业实践与效果

  • 与 vLLM/SGLang 的适配案例

  • 企业级部署经验(阿里云、蚂蚁集团)

4、未来展望

  • Mooncake Store v2:多实例共享 KVCache

  • 生态扩展:LMDeploy、TensorRT-LLM 等框架支持

听众收益:

  • 了解如何通过 KVCache 池化与 PD 分离架构解决大模型推理的高成本问题,获得可复用的架构设计思路

  • 学习 eRDMA/GPUDirect 等高性能传输技术在大模型场景的落地方法,提升分布式系统优化能力

  • 掌握主流推理框架(如 vLLM)与 Mooncake 的适配策略,推进开源解决方案持续发展


除此之外,本次大会还策划了AI InfraAI 产品研发与商业落地探索Agent 应用新范式与 MCP 生态实践AI 驱动业务重塑与提效智能硬件与具身智能创新实践AI 原生时代的卓越架构治理、、多模态与空间智能技术创新Agent + Data 落地探索AI 赋能研发体系变革Agent 核心技术与系统架构创新大模型在金融领域的创新实践等 10 多个专题论坛,届时将有来自不同行业、不同领域、不同企业的 70+资深专家在 AICon 深圳站现场带来前沿技术洞察和一线实践经验。


大会 9 折优惠倒计时最后 1 天,单张门票立省 580 元,详情可扫码或联系票务经理 13269078023 咨询。



2025-08-01 10:346676

评论

发布
暂无评论

OceanBase开发者大会·2024精彩PPT合集

菜根老谭

oceanbase

Linux设备驱动系列(十)——等待队列Waitqueue

Linux内核拾遗

队列 Linux内核 设备驱动

AI 如何赋能优质直播内容创作?

自象限

2/28 业务系统高可用设计(上)

hackstoic

架构设计 TGO写作小组28天挑战

OpenMLDB v0.9.0 发布:SQL 能力大升级覆盖特征上线全流程

第四范式开发者社区

人工智能 机器学习 数据库 开源 特征

TIKV分布式事务的异常处理逻辑

TiDB 社区干货传送门

TiKV 底层架构 学习&认证&课程

TiDB 升级方案选择

TiDB 社区干货传送门

实践案例 版本升级

一次元数据锁MDL故障排查经历

TiDB 社区干货传送门

实践案例 故障排查/诊断 7.x 实践

唐刘:关于产品质量的思考 - 测试的窘境

TiDB 社区干货传送门

数据库前沿趋势

理想中的开源社区是怎么样的?来自 TiDB 社区运营表妹的浅认识

TiDB 社区干货传送门

1688商品详情API返回值一览:阿里巴巴中国站数据解析之道

技术冰糖葫芦

API Explorer API 编排 API boy pinduoduo API

【TiDB 社区走进 360】5 月 18 日北京站!和大咖们聊聊全球视野下的 TiDB 应用实践!如何做到成本、效率两手抓!

TiDB 社区干货传送门

唐刘:关于产品质量的思考 - UT in TiDB

TiDB 社区干货传送门

数据库前沿趋势

数据库不应该盲目的只看通用基准测试,还有更重要的东西

TiDB 社区干货传送门

数据库前沿趋势

裸金属服务器与云服务器有什么区别,该怎么选择自己合适的服务器

德迅云安全杨德俊

劳动节,聊聊AI究竟在替代谁的工作?

脑极体

AI

《自动机理论、语言和计算导论》阅读笔记:p215-p351

codists

编译原理

淘宝商品详情API接口:实时获取SKU价格及库存信息

技术冰糖葫芦

API Explorer API boy pinduoduo API

开源框架 NanUI 项目宣布将暂停开发,作者转行卖钢材

源字节1号

开源 软件开发 前端开发 后端开发 小程序开发

支付系统概述(十四):收入模型

agnostic

支付系统设计与实现

Mooncake:面向长上下文的 KVCache 中心化推理优化方案|AICon 深圳_AI&大模型_AICon 全球人工智能开发与应用大会_InfoQ精选文章