
.NET 团队发布了Dev Proxy 0.28版本,引入了新功能以提高可观测性、插件可扩展性以及与 AI 模型的集成。这次发布的核心特性是OpenAITelemetryPlugin,据报道,它允许开发者在其应用程序中跟踪 OpenAI 和 Azure OpenAI 语言模型请求的使用情况和估计成本。
该插件拦截请求并记录详细信息,如使用的模型、token 计数(提示、完成和总数)、每个请求的成本估计以及每个模型的汇总摘要。
根据公告,这个插件支持更深入地了解应用程序如何与大语言模型(LLM)交互,可以使用 OpenLIT 等外部工具进行可视化,以了解使用的模式并优化与 AI 相关的费用。
该更新还支持微软的Foundry Local,这是一个在上个月的 Build 大会上推出的高性能本地 AI 运行时堆栈。Foundry Local 使开发者能够将基于云的 LLM 调用重定向到本地环境,从而降低成本并实现离线开发。
正如声明中所说,Dev Proxy 现在可以配置为使用本地模型,引用开发团队的以下说法:
我们的初步测试显示,与过去使用的其他模型相比,在 Foundry Local 上使用 Phi-4 mini 取得了显著改进。我们计划在未来版本的 Dev Proxy 中默认集成 Foundry Local。
要用 Foundry Local 配置 Dev Proxy,开发者可以在代理的配置文件的语言模型部分指定本地模型和端点。这种集成为在本地开发中使用 LLM 的开发者提供了一种成本效益高的替代方案。
对于.NET Aspire用户,现在有一个 Dev Proxy 扩展的预览版本可用。这些扩展简化了与 Aspire 应用程序的集成,允许 Dev Proxy 以最小的设置在本地或通过 Docker 运行。据报道,这种增强提高了可移植性,并简化了分布式开发团队的配置过程。
此外,还扩展了对 OpenAI 有效负载的支持。正如声明中所说,以前 Dev Proxy 仅限于文本补全,现在包括对更广泛的补全类型的支持,增加了与 OpenAI API 的兼容性。
此次发布还带来了TypeSpec生成的增强。与 TypeSpec v1.0 的更新一致,插件现在支持改进的 PATCH 操作生成,使用 MergePatchUpdate 来明确定义合并补丁行为。
正如发布中所指出的,Dev Proxy 现在支持所有配置文件中的 JSONC(带注释的 JSON)。这个新增功能使开发者能够添加内联文档和注释,这有助于团队协作和长期维护。
在日志记录和模拟方面也进行了并发性改进。这些更改确保了并行请求的日志被准确分组,帮助开发者更有效地追踪请求行为。
此次发布包括两个重大的变更。首先,GraphConnectorNotificationPlugin 已被移除,因为微软团队已经不支持使用 GraphConnectorNotificationPlugin。
此外,在 devproxy jwt create 命令中的--audience 标志已被重命名为--audiences,而简写别名-a 保持不变。
CRUD API 插件已更新,改进了 CORS 处理和一致的 JSON 响应,增强了其在客户端应用程序中的可靠性。
最后,Dev Proxy Toolkit for Visual Studio Code已更新至版本 0.24.0。此次发布引入了新的代码片段和命令,包括对已提及的 OpenAITelemetryPlugin 的支持,也改进了 Dev Proxy Beta 的兼容性,以及更好的进程检测。
对此感兴趣的读者,可以在官方存储库中获得完整的发布说明,其中提供了这个版本的特性、更改和指导的完整概览。
原文链接:
评论