
编辑 | 罗燕珊、Tina
整理 | 宇琪
一个以智能体为基本运行单元的全新时代加速到来,基础设施的演进正从 AI Infra 走向 Agent Infra 乃至 Agentic Infra,成为推动智能体规模化落地的关键力量。作为国内领先的人工智能基础设施服务商,无问芯穹是如何解决 Agent 在协同、安全与持续学习中的落地难题,将其转化为生产力的呢?
在 10 月 23-25 日于上海举办的 QCon 全球软件开发大会上,InfoQ 在现场专访了无问芯穹联合创始人、CEO 夏立雪。他在采访中详细分享了无问芯穹在面向 Agent 的基础设施建设中所取得的技术进展与实践经验,拆解 Agentic Infra 新范式将如何支持智能体规模化、产业化部署。
部分精彩观点如下:
国内的算力资源本身种类多样、分布分散,如果要迈向 AGI 时代,基础设施必须始终面向最前沿,让 Agent 像使用水电一样使用算力。
第一步是做好 Agent Infra ,基础设施要从生产线工厂变为解决方案公司,从环境、工具、上下文和安全等角度保障好 Agent 执行任务的质量。
更进一步,我们希望 Agent 及其所依托的基础设施都能拥有更强的自主性,构建更先进的 Agentic Infra,实现更高效的资源整合和更具价值的功能创新。
更会“思考”的基础设施,会带来更多创新需求,这些新需求又会推动技术研发的进一步升级,形成了一个良性的技术与应用双向飞轮。
以下内容基于采访速记整理,经不改变原意的删减。
InfoQ:传统的云计算架构建立在“请求 - 响应”这一确定性范式上。但 Agentic AI 的“感知 - 推理 - 行动 - 记忆”循环,本质上是一个非线性的、有状态的认知过程。在您看来,这种从“处理”到“思考”的范式转变,对基础设施层最颠覆性的冲击体现在哪里?
夏立雪:这种变化体现在多个层面,其中最关键的一点是:Agent 的任务不再是离散的。它不像外包工厂那样,被动接受指令、机械执行,而是具有关联性和“状态”的连续任务体系。因此,我们的 Infra 也不能再像过去那样仅仅作为一个流水线存在,它必须具备一定的智能性,能够保障 Agent 执行任务的质量。换句话说,基础设施要从“生产线工厂”转变为“解决方案公司”,为 Agent 的整体产出质量提供系统性支撑。
这意味着在实践中,我们需要从多个维度进行升级:首先,运行环境要能灵活适配 Agent 的执行方式;其次,要为 Agent 配备完善的工具,使其能够有效调用资源;第三,提供精准而充分的上下文信息,确保任务理解与执行的一致性;最后,还要通过安全与监控机制,保障整个任务过程的可控性与可观测性。
但最核心的仍然是:Agent 的任务是连续且相互关联的, Infra 必须能够协调这种连续又突发的多任务协作。在这一点上,环境的沙盒化与灵活调度能力尤为关键,它直接决定了系统能否支持 Agent 在复杂任务链中的高效运行。
InfoQ:那这样看来,以前我们更注重“算得更快”,现在是不是变成了“想得更久”?
夏立雪:是的。Agent 不仅需要更长的“思考”时间,而且“思考”与“计算”所需的资源类型并不相同。这对资源的灵活性、分配策略以及实时的调度与释放都提出了新的要求,也促使我们重新思考基础设施的设计逻辑。
InfoQ:CrustData 说 Lovable 平台的用户数从 6 月的峰值 3512 万,跌至 9 月的不足 2000 万,下降了超过 40%,你怎么看?Agent 规模化落地还有哪些阻碍?
夏立雪:这个数据里不排除有这种可能——新产品发布时大家一拥而上,而随着时间推移,真用户数在逐渐回归校准。目前 Agent 的基础智能已经足够强大,持续展现新的能力、刺激新的需求。Lovable 所吸引的用户群体,其实并非目前产品真正能够满足的目标用户。因为大众对“无代码编程”的期待是“用自然语言一步到位生成完整程序”,但现实远没有这么美好。人们尝试过后会发现,Vibe Coding 生产的各种程序,仍需要频繁迭代、不断试错,这个过程往往需要更专业的知识,让人感到挫败,高门槛和不确定性会让用户逐渐失去耐心。
更重要的是,它为我们指明了一个方向:现在 Agent 发展的核心问题在于,模型的能力已经相当出色,但配套给 Agent 的基础设施服务与工具尚不成熟。就像一位思维极快的程序员在写代码时,键盘和编译器的速度跟不上他的思考一样,当前的瓶颈不在模型本身,而在支撑体系的响应能力。
要解决这个问题,首先要让用户感受到过程的可控性和可观测性。也就是说,系统要能清晰展示每一步的变化和决策路径。就像程序员与产品经理协作时,不会简单地说“我改了一版,你再试试”,而是会说明“在 1.1 版本中新增了哪些功能”。这种透明的过程管理,能显著提升信任与理解。其次,目前 Agent 的工具支持仍然不足。例如,用户以为 Agent 能调用多种库来实现功能,但实际上它可能没有权限或接口访问能力,于是只能“瞎猜”,结果自然不理想。这些缺陷正是当前 Agent 应用受限的核心问题。
InfoQ:今天您分享了一个非常有意思的范式 “Agentic Infra ”,它和今天我们所谈论的 Agent Infra 有什么异同?
夏立雪:我们认为二者之间是一个递进的阶段关系。从算法和应用层面来看,目前我们正处在深化 L3 “自主式 AI”并走向 L4 “创新型 AI”的关键时期,需要高度关注智能体的产业落地和迭代进化情况。第一步,通过构建 Agent Infra,可以让算法能力被更好地发挥,推动智能体走出实验室环境,帮助 Agent 从演示品走向生产力。
此外,更高级的智能,将极有可能从智能体与真实世界交互的海量经验中诞生。然而当智能体进入规模化部署阶段,生产级场景需要应对复杂多变的需求和极致的效果优化,传统架构会面临更大的挑战:智能体间协作复杂度指数级增长、服务质量因资源竞争与任务冲突而下降、以及基础设施运维成本急剧攀升。
因而第二阶段的重点是构建能更好支持下一代 AI 进化与规模化落地的 Agentic Infra。除了对环境、上下文、工具链、安全与可观测性的持续加强,还应推动智能体深度参与基础设施的核心工作流。不仅实现更加自动化、精细化的资源调度与服务质量保障,还要使得系统能够自动发现异常、定位瓶颈、甚至进行资源优化和弹性伸缩,从而将运维人员从繁复的人工干预中解放出来,从根本上遏制成本的指数级增长。在这个过程中,为之构建统一的多智能体协作框架,保障多个智能体之间的高效稳定配合,最终实现从“将智能体视为工具”到“将智能体视为协作者”的范式转变,构建出一个能够支撑智能体高效、稳定、低成本协作与进化的基础设施新形态。
InfoQ:有人说 Agentic Infra 是个比较激进的愿景,因为 Agentic Infra 都还没完全定型,就要加入 Agent 去支持 Agent 部署,今天就谈 Agentic Infra 会不会还太早?你们怎么看?
夏立雪:我认为现在是一个非常好的时间点。虽然基座模型的能力一直在提升,但过去半年并没有出现明显的代际差异。然而,人工智能的落地场景却在持续扩展。这意味着模型本身已经足够“聪明”,问题在于我们尚未为它提供合适的发挥空间。因此,我们认为,Agent 具备巨大的潜在发展空间,只是人类还未充分理解它最适合承担的角色和任务。
这就像拥有一位天才程序员,但我们不可能立刻让他担任 CTO。即便赋予他全部权限,他也未必能胜任。常见的方式是让他逐步成长——先成为优秀的基层程序员,再带领小团队,然后晋升为系统架构师,最终成为 CTO。但这个是人类构建系统的传统思维方式,过程非常缓慢。现在的 Agent Infra 本质上仍是这种模式:人为地为程序设定流程和约束。例如,我们设计的工作流就像一条生产线,中间某个关键环节由 AI 负责,但整体仍受制于人类设计的框架。这样的方式固然可控,却也限制了 AI 的潜能。我们更希望看到 AI 能够跳出这条生产线,自主设计流程,从而实现更高的效率。
从目标上看,Agentic Infra 也是必然的发展方向。从实践上看,我们也不断观察到,这个新物种正在出现。例如,我们将 SaaS 和 PaaS 层的运维、资源管理、日志分析等功能的权限交由 Agent 执行后,发现它在大规模集群管理方面的表现已优于人类。
实践中很多细节让我们意识到,人类为 Agent 设计的工作流并不一定最优。既然如此,谁来为它设计工作流?答案是:Agent 应该为自己设计工作流。 这正是 A2A(Agent to Agent)的核心理念,也是 Agentic Infra 的终极目标。当我们真正迈入 AI 时代,模型应通过自主学习与协作来决定自身的分工与任务,这与大模型发展的“涌现”规律是一致的。我们现在已经看到这种趋势:后台运维 Agent 与前台客户服务 Agent 之间能够实现高效配合,远胜于人工的工程师中转方式。
因此,我们认为当前正处于 A2A 的早期阶段。基础设施层不应成为智能体发展的阻碍,而应成为其坚实的基石。我们需要构建更先进的 Agentic Infra,以支撑 A2A 协作能力的实现,通过智能体的“群体”来实现真正高效的协作。
InfoQ:这是否意味着我们正进入一个基础设施本身具备一定自主行为的阶段?
夏立雪:是的,当 Infra 引入 Agent 能力后,便具备了自主性。观察大型组织的成长也能印证这一点:最初各部门分工明确,但若要持续提升组织价值、为客户创造更多价值,成员就必须跨界协作。例如,优秀的产品经理不仅要懂产品设计,还要能理解客户与业务;技术人员也要了解市场需求,才能用最合适的技术实现目标。
同样,人工智能和代码系统也需要具备这样的跨界自主性。一个 Agent 只有跳出自身的“职责边界”,才能发挥更大的价值。我们希望 Agent 及其所依托的基础设施都能拥有更强的自主性,从而实现更高效的资源整合和更具价值的功能创新。
InfoQ:展望未来三到五年,支持 Agentic AI 的基础设施会呈现何种新形态?会是“智能体原生架构”的全面兴起吗?
夏立雪:未来,我希望能看到智能体之间进一步形成组织,共同完成更复杂的任务。届时,各个智能体的 KV Cache 和上下文可以根据需求实现共享或隔离。若能做到这一点,人类将能够释放出大量脑力与生产力,专注于更有创造性和价值的工作。
InfoQ:在 Agentic Infra 领域,传统的算力使用方式是否会颠覆?将会通过何种路径颠覆?
夏立雪:良好的 Agent Infra 能够有效缓解这种范式转变期导致的算力浪费。过去的 AI 算力基础设施通常以固定虚拟化或容器化单元来划分算力资源,每个“格子”大小固定、生命周期较长。这在传统 AI 训练和推理任务中问题不大,但在 Agent 场景下极不经济——一个智能体可能并行尝试上百个小任务,而每个任务所需资源仅为传统“格子”的十分之一。
然而,由于容器与虚拟机实例粒度过大、启动周期较长,系统在资源分配和调度上存在显著浪费。比如:容器冷启动过程(镜像加载、依赖初始化、网络绑定等)通常耗时数秒到数十秒,在高频创建和销毁任务的 Agent 场景中会造成大量时间损耗与资源空转。此外,资源在调度过程中被“预留锁定”,即使任务尚未实际运行,也会占用 GPU 或 CPU Slot,进一步拉低整体利用率。
因此,良好的 Agent Infra 会通过微虚拟化沙箱、沙箱调度和高并发沙箱管理机制来颠覆这种传统模式,让算力按需动态拼装、快速回收,实现毫秒级环境切换和接近 100% 的资源利用。虽然 Agent 的智能推理确实增加了算力需求,但在这种优化后的架构下,增长是可控的,能以合理成本支撑更复杂的智能行为。
InfoQ:无问芯穹选择“统一调度异构算力”作为破局点之一,您认为这其中最核心的技术创新是什么?是实现了一个高性能的“软件抽象层”,还是攻克了跨架构的调度算法?
夏立雪:我们其实把这两件事视为一体,即实现资源的统一标准化。在这一标准化体系中,既包括在功能层面打通不同类型算力的使用,也包括在效率层面实现任务的合理分配。否则,即便算力被打通,如果调度不合理,也无法真正发挥价值。就像“水管打通”之后,还要解决“水库之间的协调”问题一样,这两者是相辅相成、不可分割的。
当初我们选择做这件事的原因,也与中国算力生态的特点密切相关。国内的算力资源本身种类多样、分布分散,如果要迈向 AGI 时代,就必须面向最前沿,让 Agent 像使用水电一样使用算力。因此,我们在 Agentic Infra 中设计的沙盒系统,具备调用异构算力的能力。这种设计既能充分利用我们以往的技术积累,也为 AI Agent 的算力利用带来更大的想象空间。
InfoQ:当我们将这一技术路径具体应用到中国市场,面临的最大现实就是多元且碎片化的国产算力生态。无问芯穹如何超越单纯的技术“求同”(技术上打通),真正扮演好“生态整合者”的角色?最大的阻力来自技术适配,还是产业协作?
夏立雪:在早期,最大的阻力确实是技术适配。因为要在不同芯片架构之间打通通信库、统一算子库,并从更高层视角实现整体整合和调用,这个过程的启动成本非常高,主要集中在技术层面。但一旦把不同模型与不同硬件之间的 M × N 映射打通,后续的维护成本其实并不高。因为新一代芯片版本的变化幅度有限,而完全新的芯片架构出现的频率也不高。
因此,从技术层面打通之后,真正要解决的是易用性问题,让用户在使用时无需关注底层芯片差异,而只需感知性能差异。换句话说,用户不必在意用的是哪家厂商的芯片,而只关心它是否满足性能需求。
我们经历了一个从技术突破到产业融合的过程。早期我们尝试通过混合训练等方式,让用户通过统一接口访问不同算力。但随着时代发展,像 MaaS 和 Agent 这样的架构天然具备了在用户层面屏蔽底层差异的能力。以 MaaS 为例,用户关注的只是模型响应速度和吞吐量,比如每次请求延迟是否在毫秒级、每秒能否生成足够的 Token,而至于是华为还是英伟达的芯片,对用户并不重要。
到了 Agent 时代,这种趋势更为明显。用户关注的核心是任务完成质量,而不是使用了哪种芯片。因此,随着需求的升级,产业层面的整合反而变得更容易。我们此前在技术上的积累,也能更好地嵌入新的产业体系中,被更广泛地使用。如今我们面向 Agent 生态推广国产芯片,比过去面向单一用户场景更具可行性。当然,不同阶段面临的产业问题各不相同,但技术底座已经打通,这让我们能够更从容地应对未来的发展。
InfoQ:在面向 AGI 做基础设施的过程中,技术先进性和大量的工程落地工作保障客户服务,对你们来说,哪个优先级更高?
夏立雪:我们始终专注于构建和完善 AI 原生的基础设施(AI-Native Infra),因此在我们的角色中,这两者是相辅相成、互相迭代的关系。我们为客户创造的核心价值,就是提供一个更易用、更稳定的底座,让客户能够将全部精力投入到自身产品的迭代和优化上,而底层的算力、资源和模型调用等复杂部分交由我们负责。
对我们而言,为客户提供更强的技术保障,本身也是 Infra 技术演进的重要方向。我们的技术与产业密切相关,许多改进都源于实际需求。比如在与客户沟通中,我们发现一个非常典型的痛点:他们目前的沙箱非常固定、静态,无法根据任务负载弹性扩缩,也无法动态调整资源分配。换句话说,沙箱没有 HPA 或 VPA 这样的能力。这导致智能体在高峰期容易资源不足,而在低负载时又会浪费大量算力。
针对这一需求,我们研发了支持弹性伸缩和动态资源调度的沙箱系统。每个 Agent 的沙箱可以按需启动或销毁,实现毫秒级响应。此外,资源分配可以根据任务类型和负载自动调整,无论 CPU、GPU 还是国产芯片,都能智能挂载。并且,通过智能调度引擎,实现高峰弹性扩容、低峰快速收回,显著提升集群资源利用率。
那么我们开发这个沙箱系统的行为,到底是在满足客户需求,还是在进行技术创新?事实上,这两者是一致的,并且相互促进。不仅解决了用户的痛点,也完善了我们的智能体基础设施,进一步,更优的基础设施带来了更多创新需求,而这些新需求又推动了技术研发的进一步升级,这会形成一个良性的技术与应用双向飞轮。因此,在我们所处的层面上,技术的先进性与应用的落地性并不存在明显冲突,两者往往能够并行并进、相互成就。
InfoQ:如果为您的人生和事业建立一个模型,您的核心目标是什么?您希望无问芯穹这家公司,最终在中国的 AI 发展史乃至您个人的生命历程中,扮演一个怎样的角色,留下怎样的印记?
夏立雪:我在读博时正好赶上了人工智能热潮的兴起,大约是 2013 年前后。因为我长期从事人工智能与芯片打通方向的研究,所以我一直非常希望能亲眼看到 AGI 时代的真正到来。这个理想在我当时看来,是“有生之年能看到就不错”的事。
但让我惊喜的是,过去这两年,AI 的发展速度远超想象。对我而言,无论是人生目标还是事业目标,都与无问芯穹的使命高度重合。这也是我创建这家公司的初衷,我希望自己能在推动这个时代进步的过程中,贡献哪怕微小的一份力量。过去我以为自己的努力可能无关紧要,但现在发现,这份努力正在加速整个行业的演进,这让我充满信心和动力。
我们希望,无问芯穹在基础设施层和算力层的积累,能够成为推动 AGI 的坚实引擎和基石。毕竟我本身是学人工智能系统而非算法的,我更希望通过系统层面的创新,让 AGI 能够更高效、更可持续地实现。因此,我们的愿景是“释放无穹算力,让 AGI 触手可及”。我们真心希望站在基础设施的底座位置,帮助 AGI 更快走进大众视野。这既是我个人的核心目标,也是作为一名科学研究者最想亲眼见证的理想。
活动推荐
AI 重塑组织的浪潮已至,Agentic 企业时代正式开启!当 AI 不再是单纯的辅助工具,而是深度融入业务核心、驱动组织形态与运作逻辑全面革新的核心力量。
把握行业变革关键节点,12 月 19 日 - 20 日,AICon 全球人工智能开发与应用大会(北京站) 即将重磅启幕!本届大会精准锚定行业前沿,聚焦大模型训练与推理、AI Agent、研发新范式与组织革新,邀您共同深入探讨:如何构建起可信赖、可规模化、可商业化的 Agentic 操作系统,让 AI 真正成为企业降本增效、突破增长天花板的核心引擎。
今日好文推荐
开发者把掌舵人骂到关回复!Windows 要变成“Agent OS”?这位印度裔高管遭遇大型翻车现场
入侵30家大型机构、Claude自动完成90%?Anthropic 被质疑,Yann LeCun:他们利用可疑的研究来恐吓所有人
因涉泄密,字节Seed研究员、知乎8万粉大V被开除;阿里突袭百度,曝秘密立项做千问APP;李飞飞发布首款商用世界模型 | Q资讯
10万亿算力订单根本hold不住?Altman偷递11页“要钱申请”,还嘴硬 “不求联邦”,白宫直拒:谁都不救!








评论