写点什么

Daggr 发布:用于构建与检查 AI 工作流的开源 Python 库

作者:Robert Krzaczyński
  • 2026-02-10
    北京
  • 本文字数:1181 字

    阅读完需:约 4 分钟

Gradio 团队发布了 Daggr,这是一个新的开源 Python 库,意在简化多步骤 AI 工作流的构建与调试。Daggr 允许开发者以 Python 代码的方式定义工作流,同时会自动生成一个可视化画布,展示流水线中每个步骤的中间状态、输入和输出。

 

Daggr 通过将工作流组织为有向图的形式,简化了应用型 AI 的开发过程,使每一个节点都可以被单独检查和重新执行。这种方式有效缓解了应用开发中常见的一个问题:当错误发生在流程后期时,需要重新运行整个流水线,导致实验过程缓慢且结果不够清晰。通过节点级别的复现与检查,Daggr 提升了调试效率,也加快了迭代速度。

 

该库采用以代码为核心的设计思路。开发者直接在 Python 中定义节点及其连接关系,Daggr 再根据代码渲染出对应的可视化界面用于检查。这与以 GUI 为中心的工作流构建工具形成对比,后者往往牺牲版本控制能力和灵活性。使用 Daggr 时,可视化层是从代码派生出来的,而不是取代代码本身,从而保证了工作流的可复现性,也更便于审查和协作。

 

Daggr 支持三种主要的节点类型。GradioNode 可直接连接到 Gradio 应用或 Hugging Face Spaces,使已有的演示和工具能够作为工作流组件复用。FnNode 用于封装任意 Python 函数,方便插入自定义的预处理或后处理逻辑。InferenceNode 则用于对接通过 Hugging Face Inference Providers 提供的模型服务,使托管模型能够无需额外适配即可集成进工作流。

 

其中一个关键特性是状态持久化。Daggr 会自动保存工作流状态、缓存结果、输入值以及画布布局,使开发者可以在不中断上下文的情况下暂停和恢复工作。单个节点也可以在修改输入后单独重新运行,这在调试长流水线或对比某一步的不同实现方案时尤其有用。

 

由于 Daggr 由 Gradio 团队开发,它与 Gradio 生态系统实现了紧密集成。工作流既可以在本地启动,并通过浏览器访问可视化画布,也可以利用 Gradio 的隧道功能通过公共链接进行分享。对于需要长期运行的场景,同样的工作流还可以通过将 Daggr 作为依赖,部署到 Hugging Face Spaces 上。

 

开发者的早期反馈主要集中在编程式控制与可视化反馈相结合这一点上。Sebastian Buzdugan 在评论该发布时写道

把接口和 Gradio 混在一起用,真的是一个非常聪明的组合。

 

也有其他用户指出,Daggr 在快速实验和原型验证方面尤其有价值。

 

Daggr 目前是一个轻量级、实验性质的项目,仍处于 beta 阶段。随着用户的使用,其 API 可能会发生变化。尽管工作流状态是存储在本地的,但更新过程中仍可能导致数据丢失,这也进一步表明它的定位更偏向于开发和原型工具,而非直接用于生产环境的解决方案。

 

Daggr 现已作为开源 Python 包发布,支持 Python 3.10 及以上版本,可通过 pip 或 uv 进行安装。其源代码、示例和文档已发布在 GitHub 上,团队也邀请社区在项目逐步成熟的过程中提供反馈并参与贡献。

原文链接:

https://www.infoq.com/news/2026/02/daggr-open-source/