
Confluent Cloud for Apache Flink引入了 Flink 原生推理(Flink Native Inference)、Flink 搜索和内置的机器学习(ML)函数,提供了一个统一的 Flink SQL 解决方案。这些新功能旨在通过消除工作流程的碎片化、降低成本和增强安全性来简化实时 AI 开发。
这些新功能是对去年该服务的GA发布之后的跟进。Confluent 的一位总监Adi Polak详细阐述了 Flink 原生推理(Flink Native Inference)、Flink 搜索和内置机器学习(ML)函数为企业开发人员构建 AI 应用程序所解决的痛点:
如今,开发人眼必须使用不同的工具和语言来处理 AI 模型和数据处理管道,这导致了复杂且碎片化的工作流。从而导致数据管道的泛滥,数据分散在多个数据库和系统中。这种缺乏数据集成和编排的情况可能导致效率低下、网络和计算成本的增加以及开发时间的延长,使得 AI 应用程序的扩展变得具有挑战性,从而很难从 AI 投资中立即看到价值。
这些新功能通过提供一个基于Flink SQL的统一解决方案来解决这些痛点。Flink 原生推理(Flink Native Inference)允许任何开源 AI 模型直接在 Confluent Cloud 内运行。Polak 解释道:
这些开源和经过微调的 AI 模型被托管在 Confluent Cloud 内,因此无需下载外部文件或管理运行它们的 GPU。与将数据发送到远程模型端点不同,原生推理将最先进的开源 AI 模型带到客户的私有数据中,使他们能够轻松使用 Flink SQL 构建事件驱动的 AI 系统。
这种方法消除了网络跳转,通过将数据保留在平台内来增强安全性,并降低延迟以实现更快的推理,这对于实时 AI 洞察至关重要。
Flink 搜索简化了跨多个向量数据库的数据丰富化操作,而内置的机器学习函数使更高级的数据科学能力对更广泛的开发人员可用。
关于安全性、成本效率和运维开销,Polak 强调了 Confluent 统一方法的优势:
通过统一数据处理和 AI 工作负载,Confluent 降低了组织的运维开销,使开发和部署 AI 应用程序变得更容易、更快。借助 Confluent Cloud 的全托管 AI 服务,企业可以通过混合编排数据处理工作负载、在预定义的计算预算内更有效地使用 CPU 和 GPU 来节省成本,并且从没有云入口或出口费用中受益。由于数据从未离开离过 Confluent Cloud,专有数据不会与第三方供应商或模型提供商共享,因此安全性也得到了增强。
根据公司的说法,这些新能力消除了传统上阻碍实时 AI 开发的复杂性和碎片化——降低了在企业环境中构建实时 AI 应用程序的复杂性。
原文链接:
https://www.infoq.com/news/2025/03/confluent-cloud-flink-ai/
评论