
2025 年 9 月 11 日,Arm Unlocked 2025AI 峰会系列活动于 9 月 10 日在上海正式启幕。本次会上,Arm 发布了面向智能终端 AI 的新平台 Arm Lumex CSS,这是一套专为旗舰级智能手机及下一代个人电脑加速其人工智能体验的先进计算平台。
那么,Arm 为什么要推出这样一款新平台?
随着基础人工智能算法不断突破,AI 模型的规模已从百万级参数迅速迈向数十亿甚至数万亿级,复杂度和多模态特征显著提升。这一趋势对内存带宽和计算能力提出了前所未有的要求。
但挑战不仅来自模型本身,也源于应用场景的持续扩展。人工智能正加速渗透各行各业,并重塑云端生态。同时,Agent AI 的兴起也标志着一个新的时代来临,这类系统能够在本地自主运行,并实现毫秒级实时响应,对能效与延迟的要求极高。
Arm 指出,所有 AI 体验的背后,都需要重新审视软硬件架构。虽然各类加速芯片层出不穷,但伴随而来的是更高的设计复杂度、更繁重的系统集成任务和更高的成本。对于工程团队的能力和商业模式都提出了挑战。同时,计算产业也逐步触及物理瓶颈:即便是最先进的数据中心,也在功耗与散热方面遭遇困境。对于移动终端和边缘设备而言,能效更是关键,AI 创新必须以显著降低功耗为前提。
人工智能的快速迭代使计算面临前所未有的压力。“几乎每周都有新变化”,无论是模型规模、框架更新还是应用场景扩展,都推动着计算技术加速演进。这意味着计算平台不仅要具备可扩展性,还必须兼顾灵活性与高能效,才能真正支撑 AI 发展的节奏。
本次峰会开场,Arm 高级副总裁兼终端事业部总经理 Chris Bergey 首先也解析了这一 AI 发展趋势, 并强调了 Arm “平台优先”的核心策略。他指出,AI 的快速普及与个性化发展,正从模型规模、应用需求、智能体/端侧 AI、设计复杂度与成本、能效及创新速度六大维度重新定义计算,并重塑计算技术的研发、部署与规模化应用模式。

推出 Arm Lumex CSS 平台,解锁 100 亿 TOPS 端侧算力潜能
随后,Chris Bergey 宣布推出全新的移动终端计算平台——Arm Lumex CSS 平台。Arm Lumex 是 Arm 平台战略和 Armv9 计算架构的新演进,其所具备的性能、集成度、扩展性均超越前几代产品。
据介绍,借助全新的 Armv9.3 CPU 集群,Arm Lumex 实现了两位数的性能提升。此外,Arm 在所有新推出的 CPU 平台上全面启用第二代可伸缩矩阵扩展(SME2)技术,为开发者带来更强的 AI 性能、更低的内存占用,并让端侧 AI 运行更加流畅,尤其对于音频生成、摄像头推理、计算机视觉或聊天交互等对实时性要求严苛的应用而言。SME2 的推出,标志着端侧 AI 开发迈入对开发者更为友好的新时代。
这在实践中意味着什么?
据 Arm 预测,到 2030 年,SME 和 SME2 将为超 30 亿台设备新增超 100 亿 TOPS 的计算能力。这将使端侧 AI 能力实现指数级飞跃,它将降低成本、减少延迟、增强隐私,整体提升用户体验。
对开发者而言,这意味着他们能更迅速地将创新成果推向市场。此外,Arm 最新的 Mali GPU 专为满足塑造下一代用户体验的混合工作负载而打造,并且受益于全新的光线追踪单元,性能提升了两倍,将在生成式 AI、实时推理以及高保真游戏应用带来更优异的用户体验。
那么,Lumex 为何能成为突破性的平台?
Chris Bergey 列出了几组数据:
Arm C1-Ultra CPU:这是 Arm 至今推出的性能最强的 CPU。它能为设备带来出色的 25%性能提升,非常适合处理严苛的 AI 与计算工作负载。
针对功耗敏感型的用例,经过能效优化的 Arm C1-Pro CPU 能效提升幅度达到了可观的 12%。
GPU 方面,Arm 的 Mali G1-Ultra 集性能与能效于一身,性能提升 20%的同时,能耗降低了 9%。
Arm 也透露出了几组 SME2 为 C1 CPU 集群带来性能提升的数据:
语音识别延迟改善超 4.7 倍
经典大语言模型任务性能提升 4.7 倍
生成式 AI 处理速度快 2.8 倍
作为 Lumex CSS 平台最亮眼的技术之一,SME2 不仅能显著提升设备的响应速度和运行效率,还能释放出传统 CPU 无法企及的 AI 驱动功能。目前,SME2 已经受到包括阿里巴巴、支付宝、三星 System LSI、腾讯及 vivo 在内的业界生态伙伴的广泛采用与认可。
vivo、支付宝等为其站台
作为业界首家与 Arm 成立联合实验室的终端品牌,vivo 也出席大会分享双方在 AI 赋能的密切合作。vivo 高级副总裁、首席技术官施玉坚表示:“目前,vivo 计算加速平台 VCAP,已全面支持 SME2 指令集,可对使用视觉、语音、文本 AI 算法进行处理的多项高负载任务,实现显著的性能加速。以典型的端侧任务为例,SME2 可帮助 vivo 在全局的离线翻译等真实场景中,实现额外 20%的性能提升,突破过往最优方案上限。我们也在此预告,Arm 最新一代的高性能计算技术以及 SME2 等先进特性,将引入 vivo 即将发布的全新旗舰产品,推动 AI 移动体验更上一层楼。”

底层技术的迭代与更新重在用户体验的提升,支付宝作为一款在中国最频繁使用的超级应用程序,也在会中分享他们探索端侧模型推理性能的成果。支付宝终端技术负责人翁欣旦表示:“在 Arm、支付宝与 vivo 的三方密切协作下,支付宝已在 vivo 新一代旗舰智能手机上完成了基于 Arm SME2 技术的大语言模型推理验证。结果显示,在预填充(prefill)与解码(decode)阶段的性能分别超过 40%和 25%的提升。这一成果标志着 CPU 后端能力的重大突破,也让我们对迄今为止所取得的成果备受鼓舞。我们相信,随着 xNN 的持续演进,以及与 SME2 的深度融合,支付宝有望在更多场景释放 AI 潜能,构建更智能、更安全、更个性化的服务生态。”
共创中国 AI 创新之路
本次峰会的另一亮点是会中聚集产业上下游的 Arm 合作伙伴分别就不同领域的 AI 落地与 Arm 专家展开对谈,其中上午场的生态伙伴关键对话以“在 Arm 平台携手共创中国 AI 创新之路”为题,由 Arm 中国区业务全球副总裁邹挺与来自阿里云飞天实验室、安谋科技、网易伏羲实验室的与谈嘉宾一道,共同探讨了中国 AI 市场的独特发展特征、产业上下游的因应之道,以及 AI 技术对服务、游戏等热点行业下一发展阶段的影响。

自移动应用兴起以来,中国市场在场景创新、商业化落地及用户规模效应方面表现突出,形成了独特的发展模式。
安谋科技首席执行官陈锋表示,在 AI 应用领域,中国不仅拥有不可比拟的市场规模,更具备广泛的应用场景与强劲的落地潜力。在 AI 技术创新方面,中国与全球同步,应用广度尤为突出。依托覆盖传统硬件与新兴智能设备的完整产业链体系,中国为 AI 技术迅速落地提供了坚实基础,包括智能手机、智能汽车、机器人、AI 基础设施等众多领域正全面接入 AI。随着 AI 加速赋能千行百业,芯片算力需求持续增长,驱动芯片计算架构从通用走向异构。安谋科技将始终以客户与市场为导向,借助 Arm 架构在 AI 计算中的独特优势,结合自研技术创新与生态协作,积极助力中国智能计算生态建设,赋能 AI 产业蓬勃发展。
谈及大语言模型与 AI 创新应用,阿里云飞天实验室研究员杨镔博士认为,虽然在全球范围内,大模型在产业中的落地还处于持续探索的阶段,但中国市场得益于庞大的用户基础、丰富的工程技术资源以及坚实的行业政策支持,在场景创新方面,无论是在产业覆盖的广度或是速度上都具有显著的引领性。阿里云进行深入布局,不仅针对不同应用场景开源多个尺寸的通义千问大语言模型,也在多模态大语言模型领域持续发力,并在面向端侧设备方面取得了显著突破与实质性成果。
在大语言模型支撑的游戏领域,网易伏羲实验室 AI 算法部负责人吕唐杰博士分享,第三方数据显示中国玩家对 AI 技术的接受度较高,尤其在内容创作与社交分享上意愿显著。在此背景下,网易伏羲实验室深耕“游戏+AI”,整合大语言模型(LLM)、语音交互、动画生成与强化学习(RL)等前沿 AI 技术,相继推出《逆水寒》手游智能 NPC、UGC 剧组模式以及《永劫无间》手游语音 AI 队友等多项行业首创功能。此外,伏羲实验室也积极与 Arm 等硬件伙伴合作优化端侧 AI 计算效能,通过联合研发构建更适配的计算底座,为探索下一代 AI 游戏体验提供坚实的技术支撑。
软硬件的协作在实现 AI 创新尤为重要,杨镔博士表示:“感谢 Arm 在端侧模型优化方案、芯片厂商生态合作等方面的支持,未来希望携手 Arm 为下游智能终端开发者提供更完善的端到端开发工具,共同推动多模态能力产业落地。”
评论