IDC 最新报告预测,到 2028 年,中等以上规模的企业中,至少会有上百个 Agent(智能体)在运转。在此背景下,企业需要重新思考其 AI 基础设施是否足以应对即将到来的智能体协同时代。这场变革不仅关乎技术升级,更是一场关于商业模式、市场格局和全球战略的深度博弈。
今天的 AI Infra,已不再是 GPU 和调度器的简单堆砌。它更关乎算力效率、模型可用性、成本结构、生态兼容性与全球服务能力。在这场全球 AI Infra 的竞赛中,中国团队如何破局?
带着这一核心命题,我们专访了硅基流动联合创始人杨攀。作为国内最早深耕大模型推理系统的一线实践者,他亲历了 AI Infra 从萌芽到爆发的全过程。在他的讲述中,我们得以窥见:一家中国初创公司如何以“水电煤”为志,在开源浪潮与国产替代的双重驱动下,悄然成为 AGI 时代不可或缺的“铺路人”。
硅基流动的联合创始人杨攀
一、AI Infra:从看不见的底座到产业命脉
Q1:首先感谢杨老师来参加 AICon 大会北京站,请您做下自我介绍。
杨攀:大家好,我是杨攀,硅基流动的联合创始人,主要负责公司的生态运营、增长以及全球业务。我深耕云计算与互联网领域十余年,长期聚焦大规模开发者服务与云服务的创业探索。在 AI 浪潮兴起之初,我便锚定切入基础设施层,致力于服务广大的 AI 开发者。
Q2:作为亲历 AI Infra 从萌芽到爆发的从业者,您如何定义当前阶段“AI 基础设施”的核心价值?与两年前相比,行业对 AI Infra 的认知发生了哪些关键转变?
杨攀: 首先,关于 AI Infra 的核心价值,我认为它扮演着“隐形的基石”角色。大家通常更关注上层的大模型和炫酷的 AI 应用,但无论模型如何演进、应用如何创新,最底层都是在消耗 Token。这个调用过程本身存在巨大的技术门槛,它涉及复杂的计算资源调度、性能优化和成本控制,是一个典型的基础设施领域。它虽然感知不强,却是整个 AI 产业赖以运行的底座。
其次,与两年前相比,行业发生了五个关键转变。
一是过去一年,开源模型对整个模型生态的冲击是颠覆性的。去年开源模型还处于“可用”阶段,但今年,以 DeepSeek 为代表的开源模型在能力上对顶级闭源模型实现了迅猛追赶。中国多家开源模型厂商接连发布新模型,不断刷新性能基准,这极大地改变了行业对于“模型竞争力”和“技术壁垒”的原有认知。
二是以 Manus 为代表的项目,将 Agent 的模式和应用具象化了,不再是纸上谈兵,未来还会催生大量类似 Manus 的 Agent 产品。
三是 AI Coding 对 Token 的消耗量和围绕此场景的模型迭代速度都极快。
四是多模态模型迎来全面爆发:今年无论是文本、图片、语音、视频等多模态模型的发布速度和能力提升都远超预期,这要求基础设施必须高效处理异构、高带宽的多模态数据流。
五是大尺寸模型带来的基础设施挑战:DeepSeek 等模型将参数规模推高至 671B 甚至更大,大尺寸模型直接对推理基础设施的技术栈、优化路径提出了全新挑战。
Q3:在您看来,目前行业中被低估或者高估的方向分别是什么?
杨攀: 一方面,市场显著低估了 Token 消耗的增长速率。今年以来,模型调用量与 Token 消耗量均呈现指数级增长,这一规模远超多数行业参与者的预期;另一方面,市场过度高估了 AI 场景在企业端的规模化落地进程。当前除 AI 编程、内容生成等少数爆发性场景外,多数企业级应用仍受限于模型能力边界、内部数据基础设施不完善、ROI 测算不清晰等因素,落地速度与规模未达预期。
Q4:您曾指出当前 AI Infra 存在多个痛点:例如模型推理的性能和资源使用是指数相关的,与传统的云计算资源线性消耗模式有巨大差异;模型成本并未下降;「满血版」与模型量化,普通用户难以区分不同供应商提供的模型是否存在差异。目前来看,您认为最核心的痛点和挑战是什么?该痛点对于 AI Infra 的发展有什么影响?
杨攀:当前最核心的痛点是 “基础设施能力提升速度”与“应用需求增长速度”之间的“指数级追赶赛”。
一方面,Token 消耗的增长是激进的、指数级的。这不仅是因为调用次数增加,更是因为模型能力越强,解决复杂任务时往往需要消耗更多 Token(例如更长上下文、更复杂链式思考)。
另一方面,从技术角度看,得益于更好的芯片、推理算法、模型压缩等,单位 Token 的成本确实在下降,但这种技术红利常常被更庞大的 Token 消耗总量所掩盖,导致用户端的“成本感知”并未明显下降。
因此,最大的挑战在于:底层的 AI Infra 技术优化(降本增效)必须跑赢上层应用对算力需求指数级增长的曲线。我们面临的不是一个线性增长的挑战,而是一个双指数挑战——应用调用次数指数增长,单次任务消耗的 Token 也可能指数增长。这对基础设施的弹性、效率和经济性提出了前所未有的要求。
二、聚焦深耕:筑就 AI 推理核心壁垒
Q5:据了解,硅基流动已经是 AI Infra 的引领者,构建了由下至上的四层能力体系,底层是国产芯片的优化,其上层是 FaaS 异构算力纳管,第三层是 MaaS 模型平台,最上层是开发者工具链,为什么这样构建?有哪些核心优势?目前团队最聚焦的攻坚方向是什么?
杨攀: 这个体系是我们对 AI Infra 产业的认知表达,每一层都从不同的维度讲我们在做的 AI 云这个事情。芯片层主要就是解决各类国产芯片(如昇腾、摩尔线程、沐曦等)的适配问题,通过高性能推理引擎让国产芯片像国际主流 GPU 一样好用;异构算力纳管层(FaaS),统一管理和调度不同架构的算力资源,支持算力供给从“整租”走向“零售”,解决算力供需不匹配的问题;模型平台层(MaaS),将底层算力封装成稳定、快速、易用的模型 API 服务,开发者无需关心底层实现,上百款模型开箱即用;应用层目前我们不会过多参与,聚焦做好下面三层的事情。
为什么?因为从 MaaS 向下至算力、再到芯片,这三层是强耦合、必须垂直整合的。如果芯片适配不好,算力选择就受限;如果算力调度不好,就无法服务大规模需求;如果推理优化不好,就无法压榨出芯片和模型的最高性能。硅基流动的核心能力,正是能够将这三层打通,形成协同优化的整体解决方案。我们的攻坚重心一直都是确保从芯片到 MaaS API 交付链路的极致效率和稳定性。
Q6:在兼容多样化的国产芯片方面,硅基流动如何做到不绑定单一硬件?未来有何规划?
杨攀:此前国产芯片兼容适配始终绕不开英伟达的 CUDA 技术栈,但我们回顾一下:今年春节期间,硅基流动已经把 DeepSeek 成功运行在华为昇腾芯片上;今年以来,我们还将各类大尺寸模型部署在了沐曦、摩尔线程等多款国产芯片上。
我们核心在做的,是依托硅基流动的推理平台框架与技术栈,打通不同芯片厂商的软件兼容适配环节,抹平芯片与模型之间的适配壁垒——这正是我们的核心价值所在。只要完成模型适配与芯片适配,后续无论有新的模型迭代推出,都能依托这套技术体系顺利解决适配问题。
此外,不同国产芯片本身具备各自独特的特性。我非常反对单一维度评判芯片的优劣或性能高低,因为每款芯片在设计之初就有明确的定位:有的侧重超大内存容量,有的专注高效推理性能。而硅基流动因已完成多款芯片的适配,形成了一个核心优势——从算力集群构建的角度出发,我们能够将具备不同特性的芯片组合起来,为用户提供一体化的推理服务。
举个具体例子:PD 分离是大尺寸模型推理的主流加速技术,其中 P(Prefill,预填充)和 D(Decode,解码) 两个环节对芯片的需求不同。有的芯片更适配完成 D 环节的任务,有的则更适合承担 P 环节的工作。基于对不同芯片特性的深度理解,我们可以在算力集群中为各类芯片分配精准的角色,通过这种组合模式,最大化发挥整体算力的性价比。这也是我们在芯片与模型之间的中间层,能够创造的巨大价值。
Q7:市场上有训练平台、推理平台、应用平台,硅基流动为何坚定选择以 MaaS 平台为核心?其差异化路线和底层逻辑是什么?
杨攀:创始人袁进辉老师有一个精妙的比喻:“训练像一个游泳池,而推理像一条流动的河。”
这一比喻的核心内涵在于,推理需求具有持续性:只要需求存在,推理服务便需持续供给、长期存续。我们判断,未来全球绝大多数芯片将用于推理场景。核心原因在于:从全球范围来看,开展模型训练的厂商数量有限,且单次训练的算力消耗存在明确边界与上限;而 AI 各类应用的落地,最终均依赖 Token 消耗实现。
由此可见,训练规模的增长相对线性且稳定,而推理算力的消耗增长则呈现指数级特征。基于这一判断,我们锁定推理相关的广阔市场空间,这也是布局 MaaS 平台的核心考量之一。
此外,当前已有多家企业在训练领域积累了深厚的专业能力,尤其是专业模型厂商。我们认为,硅基流动无需在训练领域与这类企业竞争,应聚焦推理服务的深耕细作。这一定位构成了我们 MaaS 平台差异化路线的核心——专注推理赛道,构建专业化的推理服务能力。
值得注意的是,随着技术演进,我们不排除在推理业务中融合训练相关能力。例如,当前行业内快速发展的强化学习(RL)等技术,均属于重要的演进趋势。因此,在坚守“做好推理、服务客户”核心目标的前提下,硅基流动不会固守成规,而是将紧跟产业发展趋势持续迭代。这也是本次战略选择的底层逻辑之一:立足核心赛道,兼顾趋势演进,保障长期竞争力与服务价值。
Q8:在 MaaS 层方面,目前华为云有 Pangu、阿里云有通义、火山有豆包,它们都提供自己的 MaaS 服务。硅基流动作为独立第三方 MaaS 平台,如何避免被云厂商“管道化”或“功能内嵌”? 你们的核心护城河是技术、中立性,还是客户信任?
杨攀:这是三类角色:一是模型厂商,既研发模型,也对外提供自身的模型推理服务;二是大型云厂商,在云计算时代,AI 已成为关键应用场景,因此云厂商均会布局基础推理能力;三是 AI 原生推理服务厂商,以硅基流动为代表——区别于传统云厂商,我们无历史包袱,能够聚焦 AI 推理市场深耕。
芯片层适配能力是我们生态布局的核心环节,这一能力也支撑我们在政企市场形成差异化优势。国内市场的显著特点是大量算力为企业自有,头部政企客户、500 强企业等普遍拥有私有算力集群。依托对芯片的深度适配能力、对 MaaS 市场的深刻理解,以及经过大规模云生产环境验证的技术方案,我们可向这类客户提供私有部署的推理计算服务——这一领域并非传统云厂商的核心领地,构成我们的核心竞争力。
此外,中立性与开放性也是我们的优势,我们只做基础设施,不研发与客户竞争的上层模型或应用。这种纯粹的中立性,对于担心数据安全、业务依赖或被平台绑定的头部客户(尤其是金融、政务、大型企业)来说,具有关键吸引力。
三、生态赋能:让开发者都能站在巨人肩膀上
Q9:现在一个很明显的趋势是,一些开源模型的能力,已经越来越逼近闭源模型。这种情况下,AI Infra 层的价值重心会不会发生转移?这对像硅基流动这样的创业公司来说,在产品设计层面会带来哪些影响?
杨攀: 开源模型的繁荣,对硅基流动来说是重大利好。
开源模型越强、选择越多,意味着客户对模型服务层(MaaS)的依赖会越强,而不是减弱。因为客户需要的是一个能统一纳管、高效运行众多优秀开源模型的平台。这正与我们 MaaS 平台的定位完美契合。
我们的产品设计始终坚持“模型中立”和“开源优先”。我们的核心价值不在于拥有某个独家模型,而在于能让我们平台上的任何一个开源模型(目前已有 100 多款)都跑得最快、最稳、最省成本。开源生态越活跃,我们的舞台就越大。
Q10:今年,公司重点推进了全球化布局,其中一项关键举措是上线国际站,为海外开发者和企业提供服务。想请您分享一下,目前硅基流动在海外市场的发展情况如何?未来全球化布局的重点方向是什么?在这样的环境下,中国 AI Infra 出海的核心优势是什么?
杨攀: 我更愿意称之为“全球化品牌建设”,而不仅仅是“出海”。我们的初心是从根上建立一个被全球开发者认可的国际品牌。
我们的策略是双线的:
对开发者:提供一致、高性能、低门槛的 API 服务,开发者无国界;
对客户:深入理解不同地区(如东南亚、中东、欧洲)的市场需求、监管环境和应用场景,提供针对性的解决方案。
中国 AI Infra 出海的竞争优势,我认为有两点尤为突出:一是产业前沿站位,当前全球最活跃、最具创新力的开源模型生态,很大一部分在中国。我们身处这个生态的中心,对开源模型的理解、适配和优化具有天然的先发优势和深度。
二是极致效率与迭代速度,中国市场竞争激烈,倒逼我们必须以极高的效率进行技术迭代和成本优化。这种“卷”出来的工程化能力和对性价比的极致追求,构成了我们服务全球市场的核心竞争力。
此外,我们还有一条独特的路径:伴随中国企业和开发者的出海而出海。无论是中国领先的互联网产品、智能制造企业还是新能源汽车品牌,它们走向世界时,也需要可靠、熟悉且高性能的 AI 基础设施服务跟随。硅基流动可以成为它们全球化征程中的“AI 基建伙伴”。
Q11:对于个人开发者和初创企业,硅基流动有哪些具体的生态赋能措施?
杨攀: 践行“AI 普惠”是我们从创立之初就坚持的理念。具体措施包括:
免费资源与 API:我们平台上提供大量小尺寸模型的免费调用额度,降低开发者的入门门槛。过去两年,有数百万中国开发者通过我们的 API 开启了 AI 学习与开发之旅;
赞助开发者活动:我们持续赞助全国各地的 AI 黑客松、开发者大赛,提供免费 Token 和计算资源,激发创新;
主动发掘与扶持优秀项目:我们设有专门的生态团队,在市场上寻找由开发者创造的优秀 AI 应用或开源项目。我们不仅提供 Token 赞助,更重要的是利用我们日益增长的平台影响力(目前注册开发者已近 900 万),为他们提供曝光、宣传和流量支持,帮助好的创意被更多人看见。市场上很多开源项目下方的“Powered by SiliconFlow”标识,就是我们生态合作的见证。
Q12:有观点认为,未来 AI Infra 的竞争焦点会从“软件优化”转向“生态整合”,您是否认同?硅基流动如何布局?
杨攀: 我非常认同,未来的竞争一定是生态体系的竞争。但生态整合有两个方向:向上整合应用生态,和向下整合算力与硬件生态。
硅基流动的战略重心非常明确:专注于向下整合,做强做大基础设施生态。我们的使命是在 AI 时代为产业提供水和电等基础设施,因此我们必须向下深入,整合复杂多样的芯片生态、算力资源,构建坚实、灵活、高效的底层底座。
至于向上的应用生态,我们认为生态是“长”出来的,不是“整”出来的。我们的任务是夯实底座,提供充沛、廉价、易用的算力和模型能力。当底座足够强大,上面自然能生长出繁荣多样的应用生态。我们不会强行去整合或控制应用层,而是通过赋能和扶持,促进其自然繁荣。
Q13:展望未来 3-5 年,AI Infra 会有哪些变化?如果用一个比喻,硅基流动希望成为什么?
杨攀: 我更倾向于将其定义为“水电煤”。
对我们而言,核心战略方向是规模化布局。这一选择的核心依据在于,未来 AI 产业发展将面临“双指数增长”的核心挑战:一方面,消耗 Token 的应用数量、场景覆盖范围及调用频次均呈现指数级增长;另一方面,完成单位任务所需消耗的 Token 量同样处于指数级增长阶段。
双指数增长叠加下,将对能源供给、芯片算力,以及大规模推理、调度与云计算等核心基础设施提出极高要求。应对这一挑战本身就具备重大产业价值,也是我们当前聚焦的核心方向——做好基础设施的规模化支撑,即为 AI 产业发展奠定关键基础。把这个看似平凡却至关重要的事情做到极致,就是我们最大的价值和野心。
【总结】
与杨攀的对话,勾勒出一幅中国 AI Infra 创业公司的清晰图景,这是一条艰辛却更具基石意义的道路。这条路并不追求宏大的中心化叙事,而是以垂直整合的工程深度为支点,以开源开放与生态中立为底色,以应对指数级挑战的规模化能力为方向,持续解决多芯片、多模型时代下 AI 基础设施的真实复杂性。
在 AGI 浪潮奔涌向前的时代,硅基流动及其同行者们所构建的,或许正是支撑中国乃至全球 AI 应用蓬勃发展的、那个不可或缺的中国答案。





