AIGC在金融场景是如何落地的? 了解详情
写点什么

Confluent Platform 3.0 支持使用 Kafka Streams 实现实时的数据处理

  • 2016-06-15
  • 本文字数:3507 字

    阅读完需:约 12 分钟

来自 Confluent Confluent Platform 3.0 消息系统支持使用 Kafka Streams 实现实时的数据处理,这家公司也是在背后支撑 Apache Kafka 消息框架的公司,它近日宣布最新的开源平台已经达到了通用发布(general availability)版本。Confluent Platform 可以围绕Apache Kafka 创建可扩展的数据平台,Apache Kafka 是一个实时的、分布式的、具有容错功能的消息队列,它能够扩展至非常大量的消息。

Kafka Streams 是进行数据实时处理的轻量级方案,可以用在欺诈和安全监控、物联网的(Internet of Things,IoT)操作和设备监控。它为 Kafka 提供了一个新的、原生的流开发环境。开发人员能够使用这个库基于 Kafka 构建分布式的流处理应用。Kafka 涵盖的功能是消息和数据传输,而 Kafka Streams 涵盖的功能则是数据的处理。

Kafka Streams 支持有状态和无状态的处理,同时还支持数据的分布式容错处理。要使用 Kafka Streams,并不需要单独的集群、消息转换层或外部依赖。它每次会处理一个事件,而不是小批量(micro-batch)的消息。它还允许数据的延迟抵达并支持 windowing 处理乱序的数据。

读者可以下载 Confluent Platform 3.0 或查阅新发布版本的文档,其中包含了 Kafka Streams 文档以及快速起步指南

在最近的新闻中,Confluent 还宣布了 Confluent Control Center 的发布,这是一个用于管理 Kafka 集群的商业产品。Confluent Control Center 可以作为 Confluent Enterprise 3.0 的一部分来获取,它的设计目的是帮助数据工程团队操作组织中的 Kafka。这个管理工具为运维人员和数据团队提供了监控 Kafka 系统不同组件的功能,这些组件包括主题、生产者和消费者,并且能够理解数据管道中发生了什么状况。

借助 Control Center,运维人员能够在消息级别检查数据环境,从而能够理解消息投递情况、可能出现的瓶颈并且可以在原生的 Kafka 环境中观察端到端的消息投递。为了满足特定的需求,Control Center UI 允许运维人员连接新的数据源到集群上并配置新的数据源连接器。

如果你有兴趣学习 Control Center 的更多知识,可以关注接下来的 webinar

InfoQ 采访到了来自 Confluent 的 Joseph Adler(产品管理和数据科学主管)和 Michael Noll(产品经理)来进一步了解这些产品发布信息以及这些产品如何帮助开发人员和运维团队。

InfoQ:Kafka Streams 与其他的流数据处理框架如 Storm Spark Streaming Apache Flink 相比,其差异性是什么呢?

Joseph Adler & Michael Noll:在流处理框架方面,负责流处理的开发人员有很多不同的可选方案。事实上,其中很多方案已经将 Kafka 用于在它们的流处理管道中了。Kafka Streams 构建在 Apache Kafka 坚实的技术基础之上,从这里它继承了 Apache Kafka 的可扩展性、弹性、容错性以及很多其他的特性。我们相信 Kafka Streams 降低了进入流处理领域的门槛,因此能够让很多的公司从实时洞悉业务现状中收益。Kafka Streams 也继承了 Kafka 的安全模型,也就是加密传输中的数据,这对像金融这样的行业来说,是很好的选择。

像 Spark 和 Flink 这样的框架通常会用在中心数据工程团队中,用于发挥大数据和数据仓库设施的威力。它们的设计是“大型重量级(heavy lifting)”的——运行复杂的查询,所消耗的时间能够持续数小时甚至更长。

Kafka Streams 适用于“快速的应用”或“流应用”——在这些应用中,产生响应的速度是非常重要的。输出可能是购买决策、基于特定场景的报价或者安全告警。这些开发人员一般会位于某个业务处理的流水线之中。

借助 Kafka Streams,对于实时处理这样的需求,我们不必像已有的流处理框架那样安装和运维单独的集群。很多人其实已经使用 Kafka 从事一些实时的数据处理(如欺诈探测、用户活动跟踪或流量监控)并将 Kafka 作为数据平台中消息系统的基石,所以使用 Kafka Streams 来处理 Kafka 原生环境中所有的数据是很自然的选择,这样的话,就没有必要新增另外的基础设施和技术了,如果要新增技术的话,开发人员可能还需要对其理解、优化并保证它的持续运行。

InfoQ:Flink 在流数据的处理中,并没有使用 micro batch 的方式,这与 Kafka Streams 的工作机制是类似的。Kafka Streams 与 Flink 还有什么相似之处或差异吗?

Adler & Noll: Kafka Streams 学习了行业之前的经验,包括学术上的,也包括开源项目社区的,如 Apache Samza。这说明在重要领域具有一定的相似性,比如恰当的时间模型来区分事件时间与处理时间的语义,以及正确处理延迟到达、数据乱序的能力。这些特性对于任何实用的流处理用例都是必需的。

另外一个关键的差异在于 Kafka Streams 支持弹性,也就是说,可以动态地增加和收缩处理能力。例如,在 Kafka Streams 中,开始的时候,我们可以只有一台机器运行流处理应用,用它来处理传入的业务数据。当数据量增大,一台机器的处理能力不足以应对的时候,那么就可以(在运行时操作,无需停机)在另外一台机器上启动相同的应用,它们会自动分担工作内容。

InfoQ:Kafka Streams 支持 Windowing 功能。你们能更详细地描述一下这个特性吗,在实时数据处理中,它的作用是什么?

Adler & Noll: windowing 允许我们将持续的数据流划分为更小的块(chunk)。这种 windowing 最为常见的是基于时间,比如基于五分钟的间隔来执行分析。对于很多的使用场景来说,windowing 是非常重要的,比如欺诈检测(“这个人在过去从来没有在一个小时内多次使用信用卡,但现在,我们在过去的五分钟内看到了五十笔交易——那么信用卡可能被盗了”)或者热门话题(“在过去的 24 小时内,Twitter 的大多数用户关注美国的总统大选、新的 Apple MacBook 以及 Justin Bieber 的最新视频”)。

InfoQ:你们能阐述一下基于时间(Time)和基于会话(Session)的 windowing 方案的差别吗,以及分别应该在何时使用它们?

Adler & Noll:比如说,基于时间的 windowing 会将流数据划分为每隔五分钟的数据块。可以将其想象为一个计数器:每隔五分钟,你就会宣布“新窗口的数据!”有很多的使用场景都需要 windowing 功能,可能绝大多数都是基于时间的。

与之不同,如果是基于会话的 windowing,那么它的范围就不是严格的计时器规则了,这是为了将相关的事件分组到一个所谓的会话(session)中。可以将这些会话视为一个阶段内的活动。使用基于会话 windowing 的一个常见使用场景就是分析用户交互事件,例如理解用户如何阅读《金融时报》的 Web 站点以及如何与 Facebook 进行交互。

InfoQ:你们能介绍一下 Kafka 在安全方面所提供的功能吗,这可能会涵盖到对消息和主题的限制访问以及跨 Kafka 服务器的加密数据传输?

Adler & Noll:在认证方面,Kafka 支持 SASL/Kerberos、SASL/PLAIN 和 SSL/TLS。而在授权方面,Kafka 提供了 ACL 来控制对特定主题的读取 / 写入 / 管理访问,该功能可以配置为针对认证用户和特定的 IP 来进行。

传输中的数据可以使用 SSL/TLS 进行加密,它的加密发生在数据生产者到 Kafka broker 之间(服务器),从 Kafka broker 到数据消费者之间以及 Kafka 集群内部 broker 之间的通信。

InfoQ:Kafka 集群能否部署到 Docker 容器之中?是否有什么最佳实践或在线资源,帮助开发人员进行这种集成?

Adler & Noll:是的,可以部署 Kafka 集群到 Docker 容器中。Confluent 提供了实验性的 Docker 镜像来运行 Confluent Platform,其中就包含了 Apache Kafka。也就是说,运行基于 Docker 的 Kafka 环境依然还是一种例外的情况,而不是通用的规则。一方面这是因为相对来讲,Docker 还是较新的技术,尚没有完全成熟。另一方面,在数据架构中,Kafka 的角色是存储数据和提供数据服务,也就是说。它是“有状态”的服务。Docker 的哲学和最佳实践是不要在容器内运行有状态的服务——它更适合没有状态的服务——因此,弥合这两个稍微正交的方式需要一些特殊的考量。

InfoQ:在新特性和功能增强方面,Kafka 有什么规划?

Adler & Noll:在接下来的发布版本中,Apache Kafka 社区规划关注于运维的简便性和更强的投递可靠性。这部分工作包括 Apache Kafka 中改进的数据平衡、更多的安全增强并支持精确的单次投递。Confluent Platform 将会具有更多的客户端、连接器,在 Confluent Control Center 中则会扩展监控和管理功能。同时,Kafka Streams 的第一个版本已经随 Kafka 0.10 一起发布了,Kafka 社区和 Confluent 将会继续致力于扩展 Kafka Streams 的功能。我们正在进行的一个特性就是在实现流处理应用的时候,可以使用的一个 SQL 接口。这是我们想要包含进来的一个特性,它有助于扩展 Kafka Streams 的用户基础,也能在总体上提升流处理能力。

查看英文原文: Confluent Platform 3.0 Supports Kafka Streams for Real-Time Data Processing

2016-06-15 19:005249

评论

发布
暂无评论
发现更多内容

写代码没几天,遇到一堆报错,我该怎么办

刘早起😶

Python 程序员 程序人生

用户故事为什么要关联开发数据?

Worktile

敏捷开发 开发数据

从位图到布隆过滤器

王坤祥

位图 布隆过滤器

Weex开发:页面跳转以及Android端多应用选择窗口的处理

dstweihao

android Vue 大前端 跨平台 Weex

你有信息焦虑症吗?

Neco.W

学习 创业 知识体系

为什么要学习 Markdown?究竟有什么用?

JackTian

markdown markdown语法 markdown编辑器

“新基建”方兴未艾,Smartbi Mining如何为产业数字化转型赋能?

infoq小陈

Server Queue 提高 QPS

风含叶

Python kafka 后端 队列

卧槽,接到一个阎王的需求

码农神说

程序员

GitHub 上十个好用的软件

彭宏豪95

GitHub 效率 工具

如何设计数据中台

数据社

大数据 数据中台 数据仓库

游戏夜读 | 改写图形API的意义

game1night

互联网省份数据大揭秘,看看哪些地方是互联网的戈壁滩?

非著名程序员

程序员 互联网 IT

自定义构造python白名单__builtins__

么么哒

Python

“Plus Token”传销主犯被公诉!警惕,区块链不是“取款链”!

CECBC

1024讲话 CECBC 区块链技术 人才发展 培训

神经网络中为什么不能将权重初始值设置为一样的值

王坤祥

神经网络 学习

为什么第三方联调应该先行?

大伟

关于软件测试的三点思考

卓然

软件测试 测试 测试的价值 联现技术咖

原创 | 使用JUnit、AssertJ和Mockito编写单元测试和实践TDD (十一)JUnit概述

编程道与术

Java 编程 软件测试 TDD 单元测试

探索 Go 语言数据类型的内部实现

TuringTuring

内存模型 高效 Go 语言

10分钟了解Flink

代码诗人

kudmp介绍和安装

唯爱

Python deepcopy一个优化

么么哒

Python

券商也“网红”,证券行业IT服务运维发展按下“快进键”

博睿数据

运维 APM 证券 券商 行情

这场大数据+AI Meetup,一次性安排了大数据当下热门话题

Apache Flink

大数据 flink 流计算 实时计算

一个在游戏行业摸爬滚打了十几年的人,为何我对这本书情有独钟

图灵社区

游戏开发 游戏制作 世嘉培训教材

git | IDEA 中如何压缩提交(压缩commit后再push 图文演示)

YoungZY

开发者工具 IDEA 开发工具

架构师训练营0期开营

刁架构

架构师

GrowingIO 大数据多维分析自动化测试实践

GrowingIO技术专栏

大数据 自动化测试 parewise

Android 通过opencv实现人脸识别,追踪

sar

android OpenCV 人脸识别

「首度揭秘」大规模HPC生产环境 IO 特征

焱融科技

sds io 高性能 存储 焱融科技

  • 扫码添加小助手
    领取最新资料包
Confluent Platform 3.0支持使用Kafka Streams实现实时的数据处理_大数据_Srini Penchikala_InfoQ精选文章