
自 ChatGPT 发布以来,围绕大模型展开的竞赛从未停歇。从最初的卷参数到卷落地应用,大家的关注点逐渐趋向务实。然而,高昂的算力成本、碎片化的 AI 应用生态,始终是扎在企业喉咙里的一根“鱼刺”——企业投入了大量资源,却发现实际收益与预期相差甚远,难以走出“ROI 困境”。
2025 年,随着 MCP(Model Context Protocol,模型上下文协议)和 A2A(Agent2Agent,智能体交互协议)的兴起,大模型应用开发迎来了新的转折点。MCP 协议通过标准化接口打破数据孤岛,让大模型精准调用外部资源,数据能够在不同系统和平台之间自由流动;A2A 协议则进一步推动了 Agent 之间的无缝交互,让不同的 Agent 进行协作与交流,形成有机整体。
从 MCP 到 A2A,不难看出,“开放”已经成为大模型应用生态新的关键词。这种开放性不仅体现在技术层面的互联互通,更体现在理念层面的协同合作。从更宏观的角度来看,这一转变也反映了技术发展的普遍规律:从技术的狂热到理性的应用落地,从孤立的技术创新到生态系统的协同进化。
过去,大模型的价值被过度聚焦于“参数规模”和“单点能力”,如今,MCP 和 A2A 不仅解决了 AI 应用间的互联互通问题,也重新洗牌大模型生态的竞争格局,大模型应用开发不再是传统的“单兵作战”模式,而是彼此紧密关联。这也意味着,企业 CTO 们需要重新审视 AI 的价值——不再单纯地追求模型规模,盲目 All in,而是通过一个能链接多元 AI 能力的平台,真正将 AI 能力有机嵌入现有业务流程和生产系统,并通过协同和标准化的方式提升整体效率,用最少的算力解决最关键的问题,让大模型落地走出“ROI 困境”。
算力浪费与场景错配,正浪费企业千万预算
在过去很长一段时间,大模型应用落地难以走出高投入、低产出的瓶颈。这一现象折射出 AI 产业发展的深层次矛盾:其一,算力浪费现象严重,有数据显示,企业级通用算力中心的利用率仅在 10%-15% 之间,大量的算力资源处于闲置状态;其二,场景错配,模型性能与实际业务场景需求并不匹配。
一个典型的现象就是“用大炮打蚊子”,一些企业过度依赖通用大模型能力,将其应用于轻量级任务场景中。此外,由于业务场景存在特殊性,也有不少企业深陷两难困境:若采用大模型,就要承受高昂的算力成本和较长的推理时间;若退而求其次采用小模型,又难以满足业务需求。在那些需要专业领域知识的业务场景中,这一矛盾表现得尤为突出。
以招聘行业的人岗匹配场景为例,企业既需要模型具备深度推理能力,来理解简历与职位描述之间的复杂关联,又对响应速度有一定的要求。尤其是在高并发的用户需求下,通用大模型过长的推理时间严重影响用户体验。
为了更好地平衡性能与效率,模型蒸馏技术近几年逐渐成为行业关注焦点, 随着今年年初 DeepSeek-R1 的推出,该技术的应用价值愈发凸显。尤其是在处理复杂推理任务方面,模型蒸馏技术能捕捉 DeepSeek-R1 的“思维链”模式,使轻量化学生模型能够继承其推理能力,而非仅仅模仿输出结果。
以智联招聘为例,其采用 6000 多亿参数的 DeepSeek-R1 作为教师模型,将处理人岗匹配任务时的思维链和决策逻辑沉淀下来,通过百度智能云千帆模型开发平台对教师模型做蒸馏,迁移到百亿参数的 ERNIE Speed 模型(即学生模型)。不仅达到媲美教师模型的效果(DeepSeek-R1 的推理链路结果准确率达 85%,学生模型准确率达到 81% 以上),还将推理速度提升到业务可接受的水平,相较 DeepSeek-R1 满血版,速度更是快了 1 倍,而成本仅为原来的三成。
当前,企业在技术路线上通常会采用两种方式实现模型蒸馏:一是完全自建从基础设施、GPU 到训练框架的完整技术体系,二是采用千帆模型开发平台或其他厂商提供的平台化解决方案。智联招聘 AI 应用专家姚思佳表示,智联招聘内部拥有一套训练框架,之所以最终通过千帆模型开发平台实现模型蒸馏,主要有三点考量:
第一,千帆模型开发平台在模型蒸馏领域提供了业内领先的完整支持,整个技术链条都围绕着蒸馏场景进行了深度优化;
第二,与自行购买和维护硬件相比,千帆模型开发平台在成本控制方面也具有明显优势,在资源分配上也更加灵活;
第三,百度专业的解决方案团队能深入业务场景,能快速理解招聘领域对‘精准匹配’与‘高并发响应’的核心诉求,与企业共同探讨解决方案。
据姚思佳介绍,下一步,智联招聘还将继续扮演 AI+ 招聘场景的拓荒者角色,利用千帆平台的基于强化学习的微调技术(RFT)进一步提升模型性能。“一方面探索教师模型是否可以拥有进一步的提升空间,另一方面,看其是否可以通过更好的奖励机制,优化已经蒸馏过的学生模型,提升模型准确率。”据悉,千帆是国内首个把 RFT、GRPO 等领先强化学习方法产品化的平台。通过将这些前沿强化学习方法转化为可落地的解决方案,千帆为更多像智联招聘这样的企业,在模型性能优化上提供了更多可能性。
不过模型蒸馏技术优化的终归只是单一模型性能,在一些复杂业务场景下,还需要将多样化的 AI 能力与场景进行精准匹配。
以智能手机为例,在通话助手这类意图识别场景中,通常采用轻量级模型,快速识别出用户的问题;在天气查询、新闻资讯获取这类通识问答场景中,通常采用中量级模型,快速给出用户准确且具有一定信息量的回答;在数据分析、逻辑推理这类需要深度思考的场景中,通常采用重量级模型。
这也意味着,一台智能手机需要在不同用户需求场景下,灵活调用多款大模型。对手机厂商而言,一面是较高的模型选择成本,一面是不同模型的接口协议等复杂调用流程。
针对这些行业痛点,千帆模型开发平台对模型路由接口做了产品化,与直接使用原厂模型相比,其提供了 定制开发、开盒即用的 API 调用产品能力,能够帮助企业节省工程化工作量和开发时间,降低成本。此外,千帆模型开发平台还能支持大规模用户的灵活调用,面对高频、高并发调用需求,也能做到又快又稳定。
在模型层面,模型蒸馏、多模型调用等技术能力正帮助越来越多的企业优化资源分配,让 AI 能力精准匹配业务场景的同时,还能降低成本。在应用层面,时下备受业界关注的 MCP、A2A 则进一步打下 AI 试错成本,帮助企业优化应用协作范式的同时,也改变了传统 Agent 开发中“重复造轮子”的低效模式。
从模型到应用的一套“组合拳”,才是助力大模型落地走出“ROI 困境”的满分答卷。
从封闭到开放,AI 试错成本一降再降
从 2023 年起,AI 应用落地的关键词就已经逐渐变成 Agent,到了 2024 年,几乎所有企业都在探讨 Agent 的应用与发展。但实际上,彼时的 Agent 缺乏真正的规划能力,更多是基于工作流的角度,将大模型与基础应用进行连接,通过专家视角的规则来拼接或流程化组件。
随着近期 MCP 和 A2A 两大协议兴起,2025 年也成为真正的“Agent 元年”。尤其是 MCP,其对 AI 领域带来的影响不亚于当年互联网的 TCP/IP 协议。
必优科技 CEO 周泽安在接受 InfoQ 采访时表示,MCP 为 AI 领域带来的核心价值体现在三个维度:
第一,MCP 实现了大模型工具调用的标准化。 在过去,每家企业都有自己的 Function Call 实现,彼此间的差异巨大。MCP 通过建立统一的接入标准,使得客户端与服务端之间的应用调度方案实现了真正的标准化。此外,通过 MCP,不仅可以在支持 Function Call 的大模型之间实现对接,还能与不具备该功能的大模型进行交互。
第二,MCP 解决了工具协同难题。MCP 协议的统一标准使得 Agent 服务的构建变得更加多元。开发者不仅需要考虑自身拥有的 Agent 和 MCP 服务,还可以思考如何整合外部能力,以实现更强大的 Agent 功能。
第三,MCP 能通过大模型串联起整个上下文进行控制,交互形态更加友好。 在搭建流程时,它可以使用更广泛的数据源,解决一些此前无法实现的复杂任务。
“总的来说,MCP 协议显著降低企业采用 AI 技术的门槛。过去企业在接入 Agent 时技术对接流程复杂,如今,企业不再需要深入理解复杂的技术实现细节,只需明确自身的业务需求即可。”周泽安表示,必优科技已经将自研的人力资源行业垂类大模型“伯乐”的文档处理能力通过 MCP 协议全面开放,包括合同、简历和 PPT 等,并成为首批将 MCP 组件上线到千帆应用开发平台的企业开发者。目前,任何企业或个人开发者都可以在千帆平台上直接调用其专业能力。
“百度将帮助开发者积极全面拥抱 MCP”。在 4 月 25 日举办的 Create2025 百度 AI 开发者大会上,千帆平台正式推出企业级 MCP 服务,百度创始人李彦宏现场演示了千帆平台拥抱 MCP 的案例,开发者在创建 Agent 时可以灵活接入包括百度 AI 搜索、地图、文库等在内的 1000 个 MCP Server。此外,千帆还推出了低代码创建 MCP Server 的工具,开发者也可以在千帆上轻松开发自己的 MCP Server,一键发布到千帆 MCP 广场。这些 MCP Server 也会被百度搜索及时索引,从而被更多的开发者发现并使用。

事实上,千帆在 MCP 协议兴起之前,就已经在持续解决 AI 落地最后一公里的难题,帮助企业高效、低门槛享受到 AI 技术红利,并为多个行业提供成熟的解决方案。
例如在智能家居行业,过去企业普遍面临一个共性难题:如何为海量产品型号提供精准的智能服务?随着大模型应用加速落地,越来越多的企业开始通过 Agent,快速为用户提供精准且个性化的回答。但与此同时,也带来了一个新的难题:如何开发和管理众多 Agent?智能家居品牌通常旗下拥有众多不同产品品类和型号,如果为每款产品单独搭建一个 Agent,不仅开发成本高,后期的管理、维护成本也不容小觑。
以某智能家居头部品牌为例,其通过百度智能云千帆应用开发平台将文件名作为独立切片,并将文件名切片信息嵌入到每个细分切片中。无需为每款产品单独搭建 Agent,只需要梳理好对应的知识库,并定义好产品型号名称,即可通过千帆平台的 RAG 框架自动解析策略,实现产品型号与知识点的精准匹配。
千帆应用开发平台还为该品牌提供了一套运营工具,构建一个能持续进化的智能中枢——通过数据回流功能,所有用户交互记录都转化为优化素材,运营人员可以实时查看高频问题,对未覆盖的知识点进行即时干预,形成“运营 - 反馈 - 优化”的闭环。此外,千帆应用开发平台与小度 AI 助手联合共建了语音交互框架,依托这套框架,品牌能够让硬件与用户直接“对话”,实现更加自然、高效且个性化的交互体验。
写在最后
从 MCP 到 A2A,开放已经成为大模型应用生态新的关键词。而开放,也是千帆平台的初心——从 2023 年发布的第一天起,千帆就以最开放的姿态,接入了丰富的三方大模型。目前,千帆已经接入超 30 家模型厂商的 100 多个模型,覆盖文本、图像、深度推理等 11 类能力,如 DeepSeek、LLaMA、通义、Vidu 等三方模型;同时提供全系列文心大模型,包括最新发布的原生多模态模型文心 4.5 Turbo 和深度思考模型文心 X1 Turbo,以及稍早前发布的深度思考模型文心 X1。
对于那些希望快速实现 AI 技术落地的企业来说,百度智能云正逐渐成为首选。市场数据就是最好的佐证。目前,千帆平台已服务超 40 万客户,在央企渗透率超过 60%。另据中国大模型中标项目监测与洞察报告 (2025Q1),百度在第一季度实现了大模型中标项目数量和中标金额上的双第一:中标 19 个大模型招标项目,项目披露金额超过 4.5 亿元,且中标的大模型项目几乎都来自能源、金融等行业的央国企客户。
百度智能云的成绩单也向外界传递出一个信号:在这场 AI 技术落地的持久战中,唯有那些真正理解产业痛点、能够帮助企业降低试错成本的方案,才最具生命力。
评论