
在开源五周年之际,昇思 MindSpore 社区交出了一份高速增长的成绩单:MindSpore 累积下载量已经超过 1300 万,社区核心的贡献开发者已经超过了 5.2 万人,整个代码核入量超过 12 万,拥有全球 150 多个国家和地区用户,联合超过两千多家社区孵化 3100 多个行业应用。
异思 MindSpore 开源社区理事长丁诚表示,在社区协作推动下,MindSpore 已逐步完善三大 AI 框架核心能力:
在大模型领域,MindSpore 已原生支持超大规模集群并行,可覆盖数万个计算节点,支持万亿级参数规模的一站式并行策略搜索与执行优化。
在部署层面,MindSpore 打通了端、边、云全场景能力:从数据中心服务器集群,到耳机、手表等小型终端设备,均可提供完整的训练与推理能力。目前,MindSpore 已应用于从服务器到数亿台终端设备的广泛场景中,成为大量智能设备的内置 AI 能力基础。
在科学计算方向,MindSpore 原生支持 NumPy、SciPy 等接口加速,并通过函数式自动微分能力,帮助科研人员探索更前沿的 AI for Science 应用。
自社区成立理事会与技术委员会以来,MindSpore 逐步形成了清晰的定位:专注 AI 框架本身,与训练推理加速库、模型社区、评测与工具社区协同发展。目前,MindSpore 已支持超过二十五类模型,覆盖脚本开发、并行训练、效果微调到部署的全流程开箱即用能力。
在执行优化、自动微分、图优化与集群调优等方面,MindSpore 通过框架能力为上层生态提供更高效的执行体验。例如在大模型推理场景中,MindSpore 已实现对 vLLM 社区能力的全面对接,在一体机等关键场景下,无需修改代码即可通过编译加速获得超过 15%的性能提升。
昇思 MindSpore 社区技术委员会主席金雪锋表示,在深度学习早期,模型规模较小,单卡即可承载,框架的核心并行形态以数据并行为主,本质是 SPMD 并行模式,对应单机编程范式,通过动态图提升开发效率、静态图提升运行效率。
随着大语言模型兴起,模型规模跃迁至百亿、千亿甚至万亿级,单机无法承载,计算形态转向集群。模型并行、序列并行、专家并行等方式应运而生,但本质仍是 SPMD,并逐步形成与 Transformer 强耦合的领域特定加速编程范式。
金雪锋指出,全模态模型与 Agentic AI 的兴起,以及算力底座向超节点架构演进,正在推动 AI 框架迈向新的架构范式。新范式的出现,主要源自三方面挑战:模型序列长度持续增长、稀疏化加剧带来的存储压力;全模态模型结构不规则化带来的并行与优化复杂度;以及 Agentic RL 等新训推范式对多任务异构调度的要求。
为此,MindSpore 与超节点硬件深度协同,提出 HyperParallel 架构,将超节点视为一台超级计算机进行统一编程与调度,并引入三项关键技术:
Hyperoffload 通过计算与状态分离,将权重、激活与优化器状态卸载到外部内存池,片上内存仅作为缓存,在保证性能的前提下显著缓解存储瓶颈。实际效果显示,训练性能可提升约 20%,推理场景下可支持的序列长度提升约七成。
HyperMPMD 引入多维 MPMD 并行,解决计算负载不均问题。在子模型内、子模型间以及跨模态跨任务三个维度提升通算掩盖率与资源利用率,使整体集群算力利用率提升约 15%。
Hypershard 则提供声明式并行编程范式,实现算法与并行策略解耦,使新算法的并行化改造时间缩短至一天以内,并行调优从天级降至小时级。
金雪锋表示,昇思 HyperParallel 架构把超节点看成一台“超级计算机”进行编程和调度,充分发挥超节点架构优势,实现 HyperShard 声明式并行编程、HyperMPMD 异构非规则并行、HyperOffload 多级智能卸载等特性,加速 Agentic AI、全模态等新模型结构和训推范式创新。
据悉,超节点亲和的 HyperParallel 架构正式版本及配套的全模态与强化学习加速套件将于明年上半年发布。
与此同时,未来 MindSpore 社区还将在端侧智能、架构开放以及行业使能等方向持续推进,覆盖端侧大模型与 Agent 加速、核心能力模块化开放,以及面向 AI for Science 与行业迁移的工具体系建设。







评论