
在不少企业还在犹豫要不要把 AI 接进核心系统时,字节已经开始讨论下一个问题了。
12 月 18 日上午,在上海世博中心举行的 2025 冬季 FORCE 原动力大会上,豆包大模型 1.8 和视频生成模型 Seedance 1.5 Pro 正式发布。
相比参数升级或榜单排名,这两次发布更像是在回答一个更现实的问题:大模型下一步,到底该怎么干活?
豆包大模型 1.8 是豆包家族的最新旗舰模型,它以“更强的多模态 Agent 场景”为定位,让模型不再只停留在“能回答”,而是真正具备能规划、会调用、可执行的 Agent 能力。放在整个豆包家族中,它也是目前 Agent 化程度最高、能力边界最完整的一款模型,综合性能已稳定进入全球大模型第一梯队。
从整体升级方向看,豆包 1.8 的竞争力主要集中在三点。
第一,是 Agent 能力的系统性增强。在工具调用、复杂指令遵循以及 OS Agent 能力上,模型都有明显提升,面对复杂任务时,已经可以主动拆解步骤、规划流程,再一步步执行完成,而不是简单给出一个答案。
第二,是 多模态理解能力的进一步拉升。这不仅体现在视觉和视频理解上,也包括长视频理解、视频运动分析、复杂空间关系理解,以及对文档内容的结构化解析能力,让模型在真实业务场景中更“看得懂”。
第三,是 上下文管理更加灵活。豆包 1.8 支持 256K 超长上下文,并提供原生 API 级的上下文管理能力,在多任务、多步骤的复杂流程中,不容易丢信息,也更擅长持续决策。
在视觉和视频理解上,豆包 1.8 的变化尤其直观。它的单次视频理解帧数从 640 帧提升到 1280 帧,同时支持先用低帧率快速理解超长视频内容,再对关键片段调用工具进行高帧率精细分析。这种“先看全局、再盯重点”的方式,已经可以直接落地到在线教育、产品质检等场景中。
在多项公开评测中,豆包 1.8 的表现也相当硬核。在视觉推理、通用视觉问答、空间理解和视频理解等任务上,豆包 1.8 基本都拿到了最佳或接近最佳的成绩;在通用智能体评测集 BrowserComp 中,它的整体表现已经跑到全球领先位置,超过 GPT-5 High,并明显领先 Claude-Sonnet-4.5 和 Gemini-3-Pro,Agent 能力进入第一梯队。
同时,豆包 1.8 并没有在基础能力上“偏科”。在数学和推理类测试中,例如 AIME-25 和 GPQA-Diamond,它的整体表现已经与 GPT-5 High、Claude-Sonnet-4.5 处在同一水平区间。
紧接着豆包大模型 1.8 的实用落地,音视频创作模型 Seedance 1.5 Pro 的发布,则更像是一场直观的视觉冲击。大会现场,一段电影级短片作为开场:镜头切换丝滑、节奏紧凑,动作与声音严丝合缝,几乎是“开场即炸场”。
相比春季原动力大会发布的版本,豆包的视频模型这次完成了一轮明显升级,这次它的目标很明确:解决专业级视频生成的真实感问题,让整体效果更接近影视制作水准,既有叙事张力,也能稳定捕捉复杂运动细节,对人物表情和情绪的呈现也更加细腻。
更关键的突破,来自音画关系的重构。Seedance 1.5 Pro 采用了创新的原生音视频联合生成架构,不再是“先画面、后配音”的拼接思路,而是从底层同时生成画面与声音。模型可以同时处理环境音、背景音乐和人物对白,实现毫秒级的音画同步输出,整体观感明显更自然。
在对白处理上,这一代模型也下了狠功夫。Seedance 1.5 Pro 支持多人、多语言对话生成,口型对齐更加精准,不仅覆盖普通话和英语,还支持四川话、粤语等中文方言,以及多种小语种,为全球化内容创作提供了更高自由度。
发布现场展示的两个案例,几乎把这些能力一次性摊开。一个画面中,两名骑士对战,刀剑碰撞、动作节奏和音效反馈高度一致,整体质感已经非常接近传统电影制作;另一个画面里,一只操着四川话的熊猫,与说英语的孩子自然对话,语音、口型和情绪都能对得上,真实感明显提升。
在实际创作中,另一个常见痛点是生成过程的不稳定性和试错成本。为此,Seedance 系列即将上线 “Draft 样片”功能。创作者可以先生成低分辨率样片进行预览,其构图、节奏、音画关系等关键要素与最终成片高度一致,真正做到“所见即所得”。官方数据显示,该功能可帮助创作者整体效率提升约 65%,同时减少 60% 的无效创作成本。
目前,个人用户已经可以在 豆包、即梦 AI 等平台体验 Seedance 1.5 Pro;企业用户则将于 12 月 23 日起,通过火山引擎 API 接入该模型服务。
在多模型方面,谭待表示,从理解到创造,豆包大模型同样拥有全球领先的图像与视频生成能力,覆盖了从图像创作与编辑、视频生成、数字人制作到 3D 模型生成的完整创作链条。无论是在线视频、短剧制作,还是智能终端交互、商品营销与产品设计,都在广泛使用豆包的 Seedream(生图) 和 Seedance(生视频) 模型。
在图像领域,字节已经发布了新一代豆包生图模型 Seedream 4.5。它在复杂指令遵循、画面元素保持能力上大幅提升,并融入了更丰富的世界知识,表现再上新台阶。它能够将不同人物、物体与场景照片智能组合,生成创意合影;将汽车渲染成精致的分解结构图;轻松制作多卡通角色的主题拼图;实现逼真的模特虚拟试穿,并生成媲美专业设计的产品营销海报。
在豆包模型大秀实力后,大会话题更进一步延伸:Agent 如何真正落地?这也正是本次大会的真正主题。事实上,豆包本身已经是一个足够复杂、也足够成熟的 Agent。
作为首场演讲嘉宾,火山引擎总裁谭待并没有从模型参数、技术突破讲起,而是抛出了一个问题:如何衡量 AI 的真实价值?
他给出的判断是,Token 调用量才是 AI 是否创造价值的最直接指标。模型如果没有被真实业务持续调用,再强的能力也只是技术展示。
截至今年 12 月,豆包大模型日均 Token 调用量已突破 50 万亿,较发布之初增长 417 倍;与此同时,累计 Token 使用量超 1 万亿的企业客户数量超 100 家,覆盖 100 多个行业。谭待进一步补充,“云上每两个 Token 调用,就有一个来自火山引擎”。
而这些大规模、持续性的 Token 调用,本质上正是 AI 进入“以 Agent 为核心负载时代”的直接信号。
在 Agent 时代,谭待先拎出来“安全”这一话题。
他认为,没有安全,就没有 AI 的规模化应用。企业引入 AI 时的真正顾虑,根本不在模型够不够聪明,而在于数据会不会泄露、Agent 会不会越权操作、决策过程能不能可控。如果这些问题无法前置解决,Agent 很难真正进入核心系统。
这也是此次火山引擎发布 MaaS AI 加密芯片的背景。相比已有的软件级安全能力,这颗芯片把推理过程直接放进加密环境中运行,试图替企业绕开“要不要私有化部署”这道长期悬而未决的难题。
但即便安全问题解决,Agent 仍然很难大规模上线。更大的阻力,来自工程和系统本身。
过去几年,不少企业已经开始使用大模型,但大多仍采用“自己训练、自己推理、自己运维”的方式。这种模式在业务量不大时尚能运转,一旦业务增长,问题很快显现:前期动辄数百万元的投入、数月的建设周期;后续还要持续面对 GPU 采购、运维人力、模型升级和扩容规划。更麻烦的是,流量本身很难预测,算力要么不够用,要么长期闲置。
基于这些现实约束,火山给出的判断是:训练和推理不太可能长期绑在一起。
为此,本次大会,火山方舟推出“推理代工”。企业只需上传加密模型,底层 GPU 运维、调度和弹性扩缩容由平台完成,成本和波动风险被集中消化。火山希望用规模化的算力池,换取更低的单位成本和更高的弹性。
模型能跑之后,下一个问题是:Agent 会不会一直停留在“交付即冻结”的状态?
现实中,大多数 Agent 仍然是静态系统,上线后能力几乎不再变化。强化学习被认为是让 Agent 随业务数据持续进化的一条路径,但其工程复杂度一直是门槛。火山方舟选择把训练、资源调度和环境构建整体平台化,让团队把精力集中在业务目标本身。在抖音客服的实践中,这种方式让问题解决率提升了约 10 个百分点,同时显著减少了工程投入。
即便如此,Agent 仍可能“看不清全局”。在不少企业内部,搜索、推荐、知识库和 AI 助手长期割裂,Agent 能接触到的信息依然有限。
火山的做法,是将搜索、推荐和问答能力整合,并直接接入企业核心经营数据,试图让 Agent 不只是回答问题,而是参与分析和决策。
2025 年被认为是企业 Agent 元年,但现实是,很多企业依然不敢把 Agent 放进生产系统,担心身份和权限说不清,出了问题无法追责;决策过程不可解释,成本、延迟和成功率难以管控;核心数据库和作业系统稳定但封闭,Agent 接不上,只能停留在对话层面。
针对这些问题,火山引擎推出了 Agent Kit,一套让 Agent 能安全、可控、可规模化进入生产系统的企业级基础设施。
它不是教企业怎么写 Agent,而是解决一个更现实的问题:Agent 做出来之后,怎么才能长期、稳定地跑在生产系统里。
Agent Kit 将身份与权限、运行时、安全隔离、系统接入、观测评估和合规控制等能力统一沉到一套标准化底座中,覆盖 Agent 从开发、运行到治理的全生命周期。Agent 不再是 Demo,而是可以被监控、被审计、被复制的生产单元。
当 Agent 的数量开始成规模出现时,企业还要面临“怎么管”的难题。在很多企业内部,Agent 分散在不同系统里:研发做的、业务部门搭的、个人私下用的,各有入口、各自生长。员工不知道该用哪一个,管理者也说不清哪些 Agent 真正在产生价值。Agent 看似越来越多,但效率并没有同步提升。
针对这一问题,火山引擎给出的解法是 :1 + N + X 。
其中,“1”指的是统一的企业级 Agent 入口。为此,火山引擎推出了 HiAgent 新成员 Agent Service 。它是一个统一的调度与使用层:不论 Agent 来自 Coze、自研系统,还是 Agent Kit,只要接入 Agent Service,员工就不需要再记住系统和工具,只需通过一个入口,就能调用与自己岗位、权限匹配的 Agent 能力。
“N”代表的是火山引擎少而精的通用 Agent 矩阵。火山并不追求堆数量,而是只在高频、可复用的场景中,打磨成熟的通用 Agent 能力。包含:数据智能 Agent,内容创作 Agent“Kickoff”,火山客服 Agent,安全运维 Agent,火山客服 Agent 等。避免企业在共性需求上反复造轮子。这些 Agent 的定位很清晰:解决 80% 的通用问题,而不是覆盖所有场景。
“X”则是企业自己的业务化场景。这部分并不由火山定义,而是交给企业员工去共创——围绕自身业务流程、数据资产和经验沉淀,构建真正有差异化价值的 Agent。
为了进一步降低企业使用门槛,在应用层面,火山正式推出豆包助手 API,将经过数亿用户真实场景打磨的复杂 Agent 能力模块化输出,真正实现开箱即用。
而所有能力落地的前提,离不开成本可控。
延续之前的降价路径,今年火山引擎给出的新解法—— AI 节省计划。简单来说,火山引擎把平台上所有按量付费的大模型——包括豆包以及各类第三方开源模型——统一纳入同一计费体系,不再按模型、按部门分别计算用量,而是跨模型、跨部门合并累积,自动享受阶梯式折扣。用得越多,单价越低,最高可节省 70% 成本。
至少在火山的设想中,只有当 Agent 真正实现“用得起、管得住、跑得稳”,才能彻底走出 Demo,全面进入企业生产系统。
以下内容整理自火山引擎冬季 FORCE 原动力大会现场演讲,InfoQ 在不改变原意的情况下进行了编辑。
各位来宾朋友们,大家上午好!
相信大家都能感受到大会的火热氛围,现场甚至有参会者站在门口,非常感谢大家的支持与等候。这种火热氛围也正反映出 2025 年 AI 在中国的高速发展态势——AI 正以前所未有的速度走向规模化应用。如何用好 AI,是所有企业的必答题,相信本次大会能为大家带来启发与收获。
豆包大模型 Token 量国内公有云第一。
衡量 AI 发展的核心指标是 Token 调用量,模型唯有被调用才能发挥价值,越有价值的模型,调用次数必然越多。因此,每次大会我们都会公布豆包大模型的 Token 调用数据。截至今年 12 月,豆包大模型日均调用量已超过 50 万亿,自发布以来实现 400 亿倍的高速增长,较去年 12 月增长超 10 倍。
这一数据不仅体现了豆包大模型的竞争力,更反映了 AI 行业的加速发展趋势。持续提升的 Token 调用量推动火山引擎 AI 产品不断完善:在 Gartner 发布的全球 AI 应用开发平台能力象限中,火山引擎位列挑战者象限首位,位居中国第一;根据 IDC 报告,火山引擎在中国公有云大模型服务调用量中稳居第一,市场份额从 2024 年的 46.4%进一步提升至 2025 年的 59.2%,意味着中国公网云上每两个大模型服务客户中,就有一个选择火山引擎。
我们更关注企业基于火山引擎实现的 AI 创新实践。2025 年,超过 100 万家企业和个人使用了火山引擎大模型,覆盖 100 多个行业。值得自豪的是,有超过 100 家企业在火山引擎的累计调用量超过万亿,在此祝贺这 100 多家企业在 AI 时代迈出坚实步伐,也再次感谢大家对火山引擎的信任。
越来越多的企业和开发者正通过 AI 和 Token 创造价值、改变世界。回顾科技发展历程,当前正处于从 PC 时代、移动时代向 AI 时代的跨越阶段。三个时代的技术主体发生了根本性变化:PC 时代的技术主体是 Web 和网站,移动时代是 APP,而 AI 时代的核心是 Agent——它能够自主感知、规划和执行任务,让软件首次从被动工具升级为主动执行者。
新时代需要新的技术架构。过去,我们习惯通过 IaaS、PaaS、SaaS 的分层模式规划 IT 架构,通过抽象化屏蔽底层逻辑,但这一体系在 AI 时代已不再完备。AI 需要自主完成思考与规划,主动调用工具、使用各类资源和数据库,因此需要一套全新的面向 Agent 的技术架构——这正是我们一直倡导的 AI 云原生架构。
在 AI 云原生架构中,模型是软件的核心,MaaS(模型即服务)是使用模型的最佳方式。通过模型与 MaaS,我们将算力的开放模式转化为便捷的使用模式,降低企业使用门槛。在此基础上,Agent 开发平台进一步将模型封装为 Agent,并提供完备的中间件、SDK 和工具,解决 Agent 鉴权、并行处理、记忆管理、沙箱观测等核心问题。最外层则需要构建 Agent 的管理与运营体系:未来企业可能拥有成百上千个 Agent,需实现 Agent 与现有工作流系统、Agent 与 Agent 之间的智能互通。基于这一架构,火山引擎设计了一系列产品和服务,而安全是所有应用的前提。
安全与 MaaS
火山引擎始终认为安全是 AI 应用的基础,持续通过技术创新解决企业 AI 应用的顾虑,推出业界先进、全面的 AI 安全产品:火山引擎 AI CDP 通过拆分计算、同态加密、CPU 与 GPU 替代计算方案,实现用户与企业数据的端到端加密,让企业能像在私有化环境中一样安全使用云端模型;大模型防火墙可有效解决智能体被劫持和诱导的安全问题,提示词攻击拦截率高达 99.8%,有害内容检测率超 99%;智能体安全管理帮助企业实现对智能体全资产、全生命周期的安全监管,降低安全风险。
今天,我们在 AI 安全领域再推新品——MaaS AI 加密芯片。火山方舟上的所有模型均可直接运行在该芯片的加密计算环境中,且使用便捷:用户只需在火山方舟选择加密推理方式,即可一键开启各类模型的加密推理。通过 MaaS 与 AI 加密芯片,企业能更便捷、安全地使用大模型,安全性甚至优于私有化部署。
智能终端是典型应用场景。年终时,我们与联想合作率先实现端到端加密的 AI 应用;近期又与 OPPO 联合打造业界首款支持端侧 AI 加密计算的智能手机,全面守护用户信息安全。AI 加密计算还可应用于企业内部,例如企业构建知识库时,通过 MaaS AI 加密计算,既能享受云端模型的先进性与低成本,又能严格保护内部知识。以上汽大众为例,其通过使用 MaaS AI 加密计算,实现了 5 万多份机密知识库的安全保护,新增五大 AI 应用场景,为上千家经销商、上万名销售人员提供智能知识服务,较私有化方案成本节约超 60%,大幅降低 AI 创新门槛。
我们还与美东艾瑞合作,通过豆包大模型辅助医生生成患者病历,全程采用 MaaS AI 加密计算,确保患者隐私数据绝对安全。持续的安全投入让更多企业放心使用火山引擎核心服务。2025 年,火山引擎陆续发布豆包 API、天枢系列等深度思考模型,为客户 AI 转型提供广泛支持。以下分享几个典型案例:
海底捞基于豆包大模型打造 AI 助餐管家“捞捞”,覆盖消费者餐前、餐中、餐后全流程,目前已服务 1400 多家海底捞门店,平均为消费者节约 30%以上的预订操作时间。
华泰证券基于豆包大模型打造国内证券行业首个 AI 原生应用“AI 投顾”,深度融入选股、分析、交易等核心场景,帮助用户执行选股、盯盘、下单、提醒等复杂操作;同时可根据用户兴趣需求,生成个性化对话式 AI 功能,方便用户在通勤途中获取市场信息。
猿辅导等头部在线教育企业将豆包大模型深度融合到教学练评全流程,为学生提供个性化辅导。
同济大学通过火山引擎 Highway 服务 27000 多名在校师生,学生积极参与 AI 创新,创建了 14000 多个智能应用。
在汽车领域,奔驰与火山引擎在自动驾驶、智能座舱、数据与数字营销等方面开展深度合作。以智能座舱为例,接入豆包大模型后,奔驰打造了更懂中国用户、更个性化的座舱交互体验。
奔驰新款座舱交互体验展现了 Agent 的全面能力,也反映了行业对大模型能力的核心需求:完善的多模态理解能力、精准的复杂指令遵循能力、更大的上下文窗口、支持长流程任务,以及灵活选取和调用复杂工具链。简言之,行业需要更强大的豆包模型。
豆包大模型家族新成员
今天,火山引擎正式推出豆包大模型新一代版本——豆包大模型 1.8。该版本面向多模态 Agent 场景定向优化,核心能力实现三大突破:其一,Agent 能力大幅增强,多轮对话、复杂指令遵循、OS Agent 操作能力显著提升;其二,多模态理解能力升级,大幅提升视觉理解精度,支持逐帧解析超长视频,在视频内容理解、复杂空间理解、文档结构化解析等方面均有突破;其三,原生支持智能上下文管理,用户可配置上下文策略,模型执行超长任务时能自动记录历史信息,保障多步骤长任务稳定完成。
核心能力的升级带来了评测性能的跃升:在 Agent 相关评测中,豆包 1.8 在 AB 2025 课题中稳步提升,在通用智能体评测 ProCompass 中斩获全球领先成绩,SL 能力较 1.6 版本大幅提升;在多模态理解领域,豆包 1.8 持续突破,视觉判断准确性、空间理解、文档解析、视频运动识别能力均达到全球领先水平,超越 Gemini,其他任务表现均处于全球第一梯队。
下面通过三个案例直观展现豆包 1.8 的新能力:
案例一:商品比价场景。用户需全网比价挑选耳机,需求涵盖音质、降噪、续航、预算、优惠券、送达时间等多维度。豆包 1.8 接到任务后,先规划处理流程,再调用相关工具匹配耳机,最终在多个电商平台完成搜索比价,锁定抖音商城的最优性价比耳机。该能力可广泛应用于电商、生活服务领域,也可赋能企业自动化流程,实现办公 SaaS 软件自动调用,提升运营效率。
案例二:视频理解场景。针对车辆被划后调取监控排查的痛点,我们模拟了 1 小时 4 分钟的监控画面并输入豆包 1.8。模型先通过低帧率快速概览全视频,再调用 Video Card 工具对关键片段进行高帧率精细分析,最终精准定位肇事车辆和事故时间。该能力可落地于在线教育、安全巡检、产品质检等场景,帮助企业提升业务效率、降低运营成本。
案例三:长流程任务执行。年终时,管理者需处理 5 份意向报告并撰写 BP,要求从邮箱下载分析报告、参考 2026 年公司战略与市场情况、突出最优项目,最终以可视化网页呈现。该任务步骤多、需处理 10 份文档,传统模型因上下文窗口限制,随着处理推进 Token 溢出导致任务失败;而豆包 1.8 通过智能上下文管理,可稳定控制 Token 长度,成功完成复杂任务。我们相信,豆包 1.8 的推出将帮助企业更轻松地构建复杂 Agent 应用,创造更多行业价值。
接下来,有请汽车行业明星企业比亚迪分享如何运用豆包大模型。
感谢比亚迪的分享。刚才的演示中,比亚迪智能座舱展现了多模态创作能力,这也是豆包大模型的核心优势之一。豆包拥有全球领先的图像和视频生成能力,覆盖图像创作、编辑、视频生成、数字人制作、3D 模型生成等全场景,深度融入个人与企业日常创作,广泛应用于在线视频、短剧制作、智能终端交互、商品营销、产品设计等领域。
三星与火山引擎有着深远合作,作为全球智能终端巨头,三星通过引入豆包大模型持续提升 AI 交互体验,尤其在视觉效果创新上玩法丰富。下面通过一段演示看看三星的创新应用。
正如演示所示,三星充分运用了豆包生图与生视频模型能力。在此领域,火山引擎也迎来新突破——发布新一代豆包生图模型 Seed 4.5。该版本大幅提升元素还原能力,融入更丰富的世界知识,性能再上台阶:可实现人物与场景照片合成合影、生成监控视角海报、制作汽车精致分解结构图、创作多卡通角色视频、生成逼真虚拟模特照片及专业级产品营销海报,为专业设计与商业营销打开更多想象空间。Seed 4.5 的图像编辑能力全球领先,在 LLaVA 等多个评测子领域保持全球第一梯队、中国第一的水平。
再看视频创作领域。
今年春季火山大会上,我们推出豆包视频生成模型 Seedance 1.0,迅速成为全球最受欢迎的视频生成大模型。今天,Seedance 系列后续版本正式发布,下面通过模型自制短片进行自我介绍。
今天,火山引擎正式推出豆包视频生成模型 Seedance 1.5 Pro。刚才的短片展现了该版本的核心优势:音画同步输出、多人多语言对白配音、更强的叙事张力。目前,用户可通过豆包 APP 或即梦 APP 体验该模型,企业客户可前往火山方舟体验中心查看效果并预约服务。
Seedance 1.5 Pro 的核心亮点是音画同步——实现声音与画面同时生成匹配。尽管该功能并非行业首创,但豆包大模型的全面性为其提供了核心支撑:依托深厚的语言与语义模型积累,Seedance 1.5 Pro 实现了音画时间同步精度与语音质量的全球领先水平。
该模型不仅支持文生音视频,还支持图生音视频。输入文本指令即可生成音画匹配的精美短视频;支持多人对话场景,可根据画面角色数量与声本实现精准口型匹配,有效解决行业常见的“张口不发声”问题;原生支持多语言及四川话、粤语、上海话等多种中国方言,大幅提升内容创作的实用性。
AI 的魔力让不同语言、种族的交流更顺畅。在视觉呈现上,模型不仅需生成高清画面,更要驾驭影视级镜头语言与叙事张力,捕捉微表情,才能提升实用性、创造“有灵魂”的角色。Seedance 1.5 Pro 在这方面大幅优化,通过文本指令即可生成细节丰富的画面。
使用过 AI 视频模型的用户普遍面临“抽盲盒”问题——需反复尝试才能生成满意镜头。为解决这一痛点,Seedance 将上线“样片预览”功能:先输出低分辨率样片,关键要素与最终成片高度一致,帮助用户快速验证效果。通过样片预览,创作效率可提升 65%,无效创作成本减少 60%。
随着 Seedance 1.5 Pro 的发布,该系列已形成完整产品矩阵:涵盖 Seedance 1.0 Lite、1.0、1.0 Pro、1.0 Pro Fast 四个版本,覆盖不同品质的视频创作需求,帮助用户平衡成本、延迟与效果,加速 AI 在各场景的落地。
体验豆包大模型的对话、生图、生视频、语音等能力,最佳方式是下载豆包 APP。该 APP 不仅是中国用户量最多的 AI 应用,从技术角度看,也是中国最复杂、难度最高的 AI Agent。其核心能力(对话解读、知识搜索、深度研究等)均由基于豆包模型的复杂 Agent 系统支撑,历经数亿用户长期验证,积累的不仅是模型能力,更是一套围绕真实场景打磨的综合 Agent 解决方案。
很多企业家作为豆包 APP 的忠实用户,曾咨询如何快速获取企业级的豆包 APP 能力,实现开箱即用。今天,我们正式推出豆包助手 API——将豆包 APP 的对话、思考、搜索、语音、创作等核心 Agent 能力以 API 形式开放,企业可直接调用。目前,首批四项文本相关能力已上线火山方舟能力实验市场,未来将持续开放多模态理解、深度研究、内容创作、视频通话等更多能力。我们希望通过豆包助手 API 降低 AI 创新门槛,激发企业创新潜力,助力打造专属企业级豆包应用。
AI 的使用门槛不仅在于技术,更在于成本。更低的使用成本能加速 AI 创新与普惠。自 2024 年 5 月降价,到 2025 年首创按使用程度分段计费模式,火山引擎始终通过创新降低 AI 使用成本。近半年观察到一个行业趋势:越来越多企业拥抱 AI,内部使用大模型的部门与模型种类不断增加,企业需要综合方案实现成本全局最优。
今天,火山引擎正式推出全球首个针对大模型的“AI 省心计划”:火山引擎上所有按量付费的大模型产品(包括豆包大模型及各类三方开源模型)均参与该计划。企业各部门可享受统一价格优惠,不同模型用量可互相累计,降低新模型尝试的启动成本;同时设置阶梯式折扣,用量越多节省越多,最高可节省 70%使用成本。我们希望通过 AI 省心计划,帮助更多企业轻松使用大模型,实现“用得越多、创新越多、节省越多”。
Agent 开发工具:Coze 与 Trae
以上是豆包大模型的最新进展。如何将强大的模型能力快速落地,在企业真实场景中创造价值,正是火山方舟的核心价值。接下来,进入下一个环节——Agent 开发。做好 Agent 开发,首先需要趁手的开发工具,帮助开发者高效完成 AI 编码与 Agent 搭建。在此领域,Coze 与 Trae 是大家熟悉的核心产品。
当前,Coze 已汇聚超过 300 万月度活跃开发者,是中国最大的 AI 开发平台。明天的火山开发者主论坛上,我的同事小雨将带来 Coze 的最新发布。Trae 在中国拥有 160 多万月活开发者,是中国使用最广泛的 AI 编程工具。字节跳动与火山引擎本身就是 AI 编码的最佳实践:字节内部超九成工程师使用 Trae 辅助代码开发,相当比例的代码通过 AI 生成。以抖音生活服务为例,超过 40%的代码由 AI 生成,极大提升了生产力,成为业务快速发展的重要支撑。
实践中我们发现,除狭义的开发提效外,企业在软件工程领域还有安全、管控等多元需求。因此,Trae 不仅聚焦 AI 编码提效,更构建了完整的 AI 开发管理流程。今天,我们正式推出 Trae 企业版,针对企业性能要求、部署适配、项目追踪、代码安全四大核心需求全面优化:支持超过 10 万文件、1.5 亿行代码的大容量管理;实现从知识库到 AI 工具的全链路业务适配;可实时追踪 AI 代码量与开发效率;全链路代码加密,实现云端密存,严格保障企业安全与合规。
目前,蔚来、华宇朗等企业已通过事先邀请率先部署 Trae 企业版,在真实业务场景中验证了 AI 开发价值。我们相信,Trae 企业版的推出将帮助更多企业在 AI 时代加速研发提效。同时,在代码开发垂直领域,我们积极与伙伴深度共创。
SUD 是全球领先的游戏开发平台,拥有 25 亿用户,旗下操作系统服务全球超过 70%的小游戏开发者。火山引擎与 SUD 联合打造开放 AI 开发平台,核心理念是通过 AI 驱动,实现游戏开发全流程(文档、代码、美术、打包部署、运营)的 AI 加速。下面通过演示看看在该平台上如何生成大富翁游戏。
Agent 开发运营
这就是 AI 时代游戏开发的全新效率。讲完开发工具,我们聚焦 Agent 开发的核心。2025 年是企业 Agent 元年,很多企业已尝试 Agent 开发,但根据调研,真正能做好 Agent 并实现规模化运营的企业并不多。核心挑战集中在三个方面:
一是 Agent 身份与权限管理。Agent 时代,不仅需要管理人员,更要管理 Agent、工具与系统的关系。Agent 全链路需具备清晰的身份标识,明确权限边界与操作责任,否则难以进入生产核心环节。
二是模型确定性与可解释性问题。传统代码逻辑由程序员编写,而 Agent 的决策逻辑由模型生成,需明确决策依据、失败原因(模型、工具、权限问题),并管控成本、延迟与成功率,因此需要完善的评估、观测与审计机制,建立对 Agent 的信任。
三是存量系统适配问题。企业现有核心资产(数据库、消息系统、作业系统)稳定可靠,但并非为 Agent 设计。若无法实现 Agent 对存量系统的安全可控调用,企业智能化只能停留在表面。
实践中,很多团队能在几天内搭建 Agent Demo,但要满足生产环境的 SLA、合规、安全、成本要求,往往需要数月时间。核心原因在于缺乏为 Agent 规模化运行设计的基础设施。基于这些行业痛点,我们对火山引擎 Agent 开发平台全面升级,正式推出企业级 Agent 开发平台 Agent Kit,为企业 Agent 开发提供完善的技术支撑。
Agent Kit 包含 8 个核心模块:
1. Identity(身份管理):解决 Agent 身份与权限管理问题,为每个 Agent 赋予清晰可审计的身份,明确操作边界与责任归属,实现调用行为的全链路追溯。
2. Runtime(运行时服务):提供稳定的 Agent 运行时环境,替代脚本与 Demo 级部署,支持稳定、弹性、隔离的生产级运行。
3. Sandbox(沙箱工具):Agent 调用外部操作、访问敏感数据或执行三方代码时,通过沙箱环境隔离风险,保障系统安全。
4. Gateway(统一网关):AI 请求的统一入口,收敛人、系统、Agent 的访问路径与鉴权策略,支持存量系统通过 Gateway 快速转化为 MCP Server,实现与 Agent 的快速集成。
5. Memory(记忆管理):为 Agent 提供记忆管理系统,支持长期记忆的存储、治理与追溯,提升 Agent 的上下文感知与持续交互能力。
6. Observability(可观测性):建立 Agent 全链路归属与追踪能力,实现运行状态的实时监控与问题定位。
7. Evaluation(评测体系):为企业提供 Agent 量化评测标准,明确迭代方向与优化空间,支撑 Agent 持续提升。
8. Guardrail(安全护栏):将规则、合规要求内建于 Agent 运行过程,减少模型幻觉,保障输出安全。
从 Agent 的输入输出与全生命周期运行视角看,Agent Kit 覆盖开发、部署、运维、调优、管控等全环节。基于这一架构,可构建 Agent 规模化落地的核心基础设施。下面通过本次大会的报名参会 Agent,直观展示 Agent Kit 的应用效果。
本次大会我们摒弃传统表格、H5 报名方式,通过 Agent 打造全新参会体验,设计了三个核心 Agent:会前智能推荐 Agent(推荐感兴趣的会议内容)、智能签到 Agent(拍照快速签到)、智能总结 Agent(根据参会记录生成详细总结报告),所有功能可通过对话持续优化。这三个 Agent 均基于 Agent Kit 快速搭建,具体实现逻辑如下:
1. 智能推荐 Agent:基于 Identity 模块实现零信任身份权限管理,通过简单函数调用即可集成身份管理功能,实现 Agent 运行行为的全记录、可追溯;原生融入火山引擎企业身份管理体系,可直接打通火山云资源,便捷调用各类云能力。
2. 智能签到 Agent:通过 Gateway 模块实现与存量签到系统的适配——Gateway 提供轻量化改造方案,将原有签到系统快速转化为 MCP Server,通过 Agent Kit 生成对应的调用接口,实现 Agent 与线下签到系统的无缝联动,配置过程简单高效。
3. 智能总结 Agent:依托 Memory 模块实现个性化总结生成——基于观众的论坛参与、打卡记录,通过精准记忆能力生成因人而异的专属报告。该 Memory 模块源自豆包大模型的优秀性能,在 Memory Benchmark 评测中以 90.12%的准确率排名第一,具备多模态记忆能力,延迟低、容量大且集成简单。
同时,我们为这些 Agent 配置了观测与评测能力:通过 Agent Kit 提供的 OTEL 数据导出器,将 Tracer 与 Agent 绑定,关键运行数据可无缝接入云端监控系统,实现运行状态实时观测;基于标准化评测器(精选 50 多个官方评测器),可对 Agent 内容质量、性能表现、稳定性进行持续评测,支撑迭代优化。该评测系统与豆包 APP 同源,已累计为 1 万多个 Agent 提供 20 万次评测服务,助力 Agent 快速冷启动与效果量化提升。
Runtime 与 Sandbox 模块为 Agent 提供稳定的运行环境:通过 Agent Kit CLI 一行命令即可部署至 Runtime 环境,实现快速启动与弹性扩容。该 Runtime 与 Sandbox 是豆包 APP、Coze 等产品的同款计算底座,实例启动时间小于 150 毫秒,分钟级可调度数十万实例,为 Agent 运行提供充足保障。
效率对比显著:传统开发 Agent 需手动调用模型、解析输出、处理状态异常,仅 Agent 本身需 700-800 行代码,后端接口与云资源打通需额外 700-800 行代码,总计 1500-2000 行代码,且易出错;通过 Agent Kit,核心能力均以 SDK 或服务形式开箱即用,仅需 50 行代码实现 Agent 功能,10 余行代码完成后端串联,总计不足 70 行代码即可实现完整 Agent 开发,代码量减少 96%,同时依托云端服务保障运行稳定性。
这就是企业级 Agent 开发平台 Agent Kit 的核心价值。今天下午的技术主论坛、明天上午的开放平台论坛上,我的同事田涛涛将带来更详细的解读,包括实时 Live Coding 演示 Agent Kit 的使用流程,欢迎大家交流探讨。
Agent 要在企业发挥价值,核心前提是读懂并用好企业内部数据。若 Agent 不了解企业历史与内部知识,无法深度融入真实业务流程。因此,企业需面向 AI 与 Agent 做好数据建设,这也是火山引擎推出多模态数据服务的初衷。
自 2025 年 4 月发布 AI 多模态数据集以来,我们已与汽车、游戏、传媒、科研等行业领军企业合作,构建了上百个百 P 级多模态数据集,通过数据治理、检索等能力,助力企业管理 AI 应用核心资产。多模态数据服务的 AI 算法广场内置超过 200 个开箱即用的 AI 算法,覆盖文本、图像、视频等多领域,大幅降低多模态数据开发门槛。
今天,多模态数据服务正式实现与 Agent Kit 的互通:开发 Agent 时,可通过 Agent Kit 直接调用 MaaS 的多模态数据能力,实现多模态数据的自动开发、检索与分析推理;同时借助服务管理能力,实现数据版本的可控与可追溯,让 Agent 充分利用企业数据创造价值。
火山引擎基础架构产品的系列升级:HiAgent 新成员 Agent Service
完善的 Agent 生态离不开坚实的基础架构支撑。火山引擎在 AI 领域的领先洞察与实践,得益于基础架构的深厚积累。下面介绍火山引擎基础架构产品的系列升级:
计算层面:面向 AI 算力需求全面升级,发布第四代本地 HSD 实例、高性价比 Flat 算力实例,以及面向大模型训练推理的大内存实例、专用 AI 芯片与通用计算实例,核心目标是实现业务运行更快、成本更低、规模更大。
存储层面:针对量化数据升级 AI 内存系统,推出弹性极致缓存 EIC,新版本性能提升 87.5%,GPU 算力消耗降低 20%;全面升级 AI 类型文件系统与 B 型文件系统;推出向量知识存储 Host Memory,优化数据智能检索拓扑。
网络层面:发布新版 VRDMA 产品,时延下降 80%,带宽提升 3 倍;配套 Fiber Link SPN 6.0 与新一代高性能传输协议 VLog,突破 AI 算力规模化的网络瓶颈。
数据库层面:为 MongoDB、VDB 等传统数据库添加向量检索能力;支持 Memory、SUPA 等 AI 新型数据底座;基于传统 Open 设计升级为全新 Context 设计,为 AI 智能应用提供高效数据服务。
火山引擎技术产品已完成从传统基础设施到 AI 原生基础设施的系统性升级。下面通过视频看看小米如何基于火山引擎最新基础设施实现 AI 转型。
通过火山方舟,企业可高效用好模型;通过 Agent Kit,可快速开发并推动 Agent 生产上线。当企业拥有大量 Agent 后,核心需求转向高效运营。
云时代,我们倡导 DevOps 理念,强调开发与运维一体化;Agent 时代,企业运营模式发生新变化——OPS 不仅包含运维,更需纳入运营。只有实现研发与运营的协同优化,才能让 Agent 真正发挥价值。管理 Agent 需像管理团队一样精细化,基于这一理念,火山引擎推出 HiAgent,定位为企业一站式智能工作平台。
2025 年,HiAgent 已累计服务数百家企业,包括奔驰、招商银行、国家电网、中国政法大学、加金矿业等行业领军企业。从行业实践来看,企业 Agent 正实现两大关键跨越:一是使用广度拓展,平均每家企业 Agent 数量从 2024 年的 18 个增长至 2025 年的 200 多个,部分企业甚至超过 1000 个;二是使用深度渗透,从轻量化试点场景逐步进入 To B 生产环境,在特定专业领域实现规模化应用,持续释放价值。
广度与深度的拓展让 Agent 开发运营更复杂。基于大量企业服务经验,HiAgent 总结出“1+N+X”体系,助力企业高效实现 Agent 运营落地:
“1”代表统一的企业 AI 交互平台。随着 Agent 数量增加,不同 Agent 能力与员工需求存在差异,通过统一 AI 智能入口与个性化按需分发,员工可集中调用各类 Agent 能力,提升使用效率。
“N”指 N 个开箱即用的通用 Agent。企业存在办公、数据分析、设计开发、客户营销等共性场景,无需每家企业重复开发,通过预置通用智能平台即可解决共性问题,实现开箱即用。
“X”代表企业深度个性化需求。企业需结合特色业务场景定制 Agent 应用,实现与存量系统、业务流程的深度融合。
今天,HiAgent 迎来新成员——Agent Service,对应“1+N+X”体系中的“1”,定位为企业统一 AI 调用平台。其核心优势是千人千面的个性化 AI 系统能力:结合使用者职能画像(HR、财务、产品等)与使用记忆,为不同岗位员工构建专属 AI 工具团队;支持专属技术逻辑训练,让 Agent 能力更贴合业务需求;采用画布式交互,员工可创建个人 Agent 空间,实现能力分享与协作。
无论通过 Coze 开发的外部 Agent、企业自研的高代码 Agent,还是通过 Agent Kit 搭建的 Agent,均可通过 Agent 协议接入 Agent Service,实现集中管理与高效调度,助力企业提升 Agent 运营效率。
关于“N”(通用 Agent),火山引擎坚持“少而精”的自研原则——聚焦自身有认知优势、可产品化的领域,更多通过与伙伴共建 Agent 生态。下面介绍几款火山自研通用 Agent:
1. 数据智能 Agent“飞盘 Agent”:定位新一代企业 AI 数据专员,依托火山引擎数据飞轮优势,于 2025 年 6 月率先推出,已服务消费制造、汽车、金融等行业数百企业。基于丰富的客户实践,飞盘 Agent 已升级为套件产品,分为智能分析 Agent、智能营销 Agent、用户研究 Agent 三个垂直版本,更精准匹配不同数据应用场景。
2. 创作 Agent“Kickoff”:聚焦商业化内容创作全流程,解决优质内容生产周期长、细节繁琐的痛点。用户只需输入品牌链接、图片与简单指令,Kickoff 即可深度解析商业需求,自动分析产品核心受众与卖点,结合平台数据与行业趋势生成精准创意脚本,并细化为可落地的执行指令(画面风格、分镜内容、讲解风格、BGM 搭配等),最终支持通过电商或短视频平台直接发布,实现商业化创作全链路覆盖。传统人工创作需周级时间,即使有大模型辅助仍对提示词功底与脚本规划能力有要求;通过 Kickoff,创作周期压缩至天级甚至小时级,突破创意效率瓶颈。
3. 客服 Agent“火山客服 Agent”:基于豆包大模型打造,解决传统客服售前导购不专业、售后方案不准确的行业痛点。行业调研显示,传统 AI 客服问题解决率不足 10%,大量问题依赖人工。火山客服 Agent 实现三大优化:售前环节,内置多行业策略,通过模型与 RAG 技术保障话术准确性,提升订单转化率;售后环节,结合上下文数据智能协商,确认用户意图后通过编排方案自动解决问题,并调用物流、退换货等工具提升效率;安全层面,通过敏感词检测模型、电商合规模型与自定义关键词过滤,实现全链路风险拦截,避免话术失误。
以东方甄选为例,接入火山客服 Agent 后,用户咨询商品对比、产地、使用方法、物流退换货等问题时,Agent 可精准澄清追问,实现售前专业应答、售后高效解决;支持一键导入抖音商品,兼容多种商品描述文档,进一步提升客服效率。东方甄选客服问题解决率较传统小模型提升 60%以上,且实现零风险事件,既保障消费体验,又降低运营成本。
4. 安全运维 Agent“火山安全智能体”:聚焦网络安全运维痛点,替代传统人工数据分析、规则配置与问题响应模式。随着网络复杂度提升,安全告警量激增,传统方式难以应对,易出现重复告警、误报遗漏等问题。火山安全智能体基于豆包大模型,可自动分析安全告警、主动识别风险并给出深度研判报告,提升安全响应效率。
中国石油勘探开发研究院的实践验证了其价值:过去,安全团队需处理大量重复与误报告警,工作负荷大且易遗漏关键风险;部署火山安全智能体后,实现日常告警 AI 自动化值守,无效告警自动过滤率达 84%,有效告警闭环处理率提升 15%,让安全人员聚焦 1%的核心工作,运营效率提升 10 倍。
关于“X”(个性化 Agent),最了解企业独特场景的是企业自身员工。因此,最佳实践是让企业全员工参与 Agent 开发——不仅限于研发部门,产品、销售、HR 等职能部门均可参与。2025 年,火山引擎开展了一项创新实践:与 30 多家企业、高校合作举办 Agent 开发比赛,沉淀了一批 Agent 开发人才与经验,涌现出多个 AI 驱动的业务创新案例。
2026 年,我们计划扩大这一实践规模,与 500 家代表性企业、机构、高校合作,开展全栈 AI 开发培训与比赛,推动 AI 技术加速落地。欢迎感兴趣的合作伙伴联系我们,共同推进 AI 技术的教育与产业落地。
火山引擎,你的 AI 伙伴,谢谢大家!







评论