写点什么

Twitter 如何应用 Druid 分析 ZB 级实时数据?

  • 2020-03-11
  • 本文字数:3011 字

    阅读完需:约 10 分钟

Twitter 如何应用 Druid 分析 ZB 级实时数据?

Druid 是一个用于大数据实时查询和分析的高容错、高性能开源分布式系统,旨在快速处理大规模的数据,并能够实现快速查询和分析。尤其是当发生代码部署、机器故障以及其他产品系统遇到宕机等情况时,Druid 仍能够保持 100% 正常运行。


Apache Druid 社区在今年初发布了Druid 0.17.0。这是该项目自 Apache Incubator 毕业以来的第一个版本,因此也是一个重要的里程碑。


Twitter 在一年多之前就开始采用 Druid,并应用到多个场景中。对于 Twitter 的实践经验,我们采访了 Twitter 大数据引擎负责人罗震霄。他将在 QCon 全球软件开发大会(北京站)2020 分享主题为《Twitter ZB 级实时数据分析实践》的演讲。


罗震霄,Twitter Sr. Staff Engineer,负责 Twitter 大数据引擎的开发与运营,主要负责项目 Druid、Presto、Spark、Hive。在加入 Twitter 之前,在 Uber、Netflix、Facebook 从事大数据相关的研发与管理工作。是 Presto Foundation committer 和技术委员会委员。他于复旦大学获得学士学位,并于 University of Wisconsin Madison 获得硕士学位。


InfoQ:您好,请问 Druid 自开源以来,有哪些重要的演化?


罗震霄:Twitter 用 Druid 已经有一年多了,从 0.15 到 0.17,这几个版本都比较稳定,主要的变化有:


  • 设计并实现了 Native Ingestion,彻底摆脱了对 MapReduce 的依赖,可以直接 Ingest Parquet,ORC 文件。

  • Data Ingestion 设计了 Indexer Process。

  • SQL 功能持续加强。

  • 方便易用的用户界面。

  • 更全面的 Security and Privacy Support,例如 LDAP Authentication and Authorization。


InfoQ:一般的企业,哪些场景需要使用 Druid?Twitter 为什么选择了 Druid?Twitter 里有哪些 Druid 的应用举例?


罗震霄:Druid 的主要特点是性能快,规模大,易用性好。


  • 性能可以达到 1 秒以下,真正实现了大数据的实时性计算;

  • Druid 单群可以扩展至 2000 台节点以上,很好的满足了企业对大数据规模的要求;

  • Druid 的用户界面非常友好,用户常常可以通过拖拖拽拽进行查询,方便非技术类人员的应用。


Twitter 业务有很多实时的大数据需求,我们当时对比了市场上现有的开源方案,在稳定性、扩展性、性能和易用性方面 Druid 都有一定优势,最后选择 Druid。目前来看公司上下对 Druid 还比较满意。


Twitter 所有的 user events 都通过内部 Message Queue 导入 Druid,用户可以实时对 Druid 进行查询,也可以在 Druid 基础上设置各类的监控和提醒。实时监控很好的利用了 Druid 性能快和方便查询的特性。


Twitter 内部用 Druid 很多,有三大类:其一,将用户行为数据导入 Druid,进行实时用户行为分析;其二,通过 Druid 为广告商提供实时的广告效果分析;其三,利用 Druid 的实时特性,做实时监控和实时报表。


InfoQ:比如现在某个企业已经有了成熟的 Lamda 架构的离线实时系统。而 Druid 也是 Lamda 架构的,那哪些部分是可以相互 Share 的吗?


罗震霄:Druid 需要自己的存储,可以将 Message Queue 同时导入离线系统和实时系统(Druid)。


如果对一些数据经过滤后有实时的计算需求,也可以通过 Hadoop Distributed File System 将数据导入 Druid。


一般来说,企业的 Message Queue 可以共享,Hadoop Distributed File System 也可以作为 Druid 的数据源进行共享。


Twitter 现在正在开发 Presto Druid Connector,通过 Presto 实时查询 Druid 数据,这样企业内部的查询语言,查询系统也可以共享。


因为 Twitter 数据分析大多数是通过 SQL 进行的。公司上下对 SQL on Druid 的需求很高。


现有的 DruidSQL 功能不太完善,SubQuery、Join 都不支持。如果将 Druid 数据再导入其他存储系统,不仅费时费力,而且很难保证数据的一致性。基于这些考虑,我们决定开发 Presto Druid Connector,用 Presto 对 Druid 数据提供完整的 SQL 分析,避免了数据重复,节省了存储空间,而且还可以利用 Presto Connector 的优势,跨平台进行 Join 操作,比如,Join Hadoop Data with Druid Data。


现在有一些用户在使用 Presto Druid Connector,大家还是比较满意的。下一步,我们会进一步提升性能,pushdown 各类子运算到 Druid。最终的愿景是争取将所有的 SQL 操作统一到 Presto 上来。


InfoQ:如果一个系统每天需要处理 PB 级别的系统,再增加一个 Druid 这样的存储系统,是不是很大程度上增加了存储空间的压力?原系统和 Druid,最好的融合方式是什么样的?


罗震霄:为了性能的提升,Druid 需要自己的存储。对 Twitter 而言,查询速度,和系统的易用性,较之存储空间,更为重要。


Druid 需要做自己的存储的原因是:


Druid 一个重要的设计目标是实时查询,也就是查询延迟一定要在 1 秒以下。


现有硬件的基本性能决定,从内存中顺序读取 4GB 数据的延时在 1 秒左右,实际应用场景中,我们处理的数据远远大于 4GB,所以,没有索引,仅仅靠扫描文件,是不可能达到实时查询要求的。


基于这些考虑,Druid 设计并实现了自己的存储格式,主要是列式存储,并应用字典、RLE 等方式进行优化。Druid 还设计了 bitmap 索引。在实际应用中,bitmap 索引会以 mmap 方式放在内存中。绝大多数查询可以通过 bitmap 索引直接找到结果,少数查询会通过列式存储进行有选择性的文件查询。


我们也在开发一些项目,尽量减少不必要的数据重复。比如 Presto Druid Connector,通过 Presto 实时查询 Druid 数据,这样当用户需要对 Druid 数据进行 SQL 分析时,用 Presto 就可以了,不必要拷贝数据。


InfoQ:Druid 和 Kylin 这样的开源软件主要差别在哪里?


罗震霄:对 Kylin 实在不太熟悉,不好妄加评论。


我们当时主要考虑的是 Druid 和 Pinot,这两个现在应用比较广泛。相对而言,Druid 更稳定一些,社区也更大一些。


InfoQ:目前还有哪些 OLAP 平台可供选择?Druid 相对有何优势?


罗震霄:现有的 OLAP 平台比较多,开源方面,有 Hive、 Impala、Spark、Presto、Drill、Druid、Pinot 等等。


Twitter 现在的技术布局:对实时计算,统一于 Druid,对秒级到几十分钟级的数据分析,统一于 Presto,对小时级别的 ETL,统一于 Spark。


Druid 主要的优势在性能,稳定性,扩展性,和易用性。能够达到 1 秒以下的实时引擎,只有 Druid 和 Pinot,如果考虑到扩展性和稳定性,Druid 的优势比较明显。


InfoQ:在 Twitter 里,您们定制了关于 Druid 的哪些开发功能?(与开源版本不同的功能)


罗震霄:主要是四个方面:


  • 对 Thrift 文件格式的支持,Twitter 内部有大量的 Thrift 文件。

  • Presto Druid Connector,通过 Presto 对 Druid 数据进行 SQL 分析。

  • Multi-tenancy Druid,Druid 支持不同的用户类型,包括数据安全,隐私保护,和数据隔离。

  • Native Ingestion,摆脱对 MapReduce 的依赖,直接导入 Parquet 文件。


InfoQ:未来,Twitter 还计划对 Druid 开发或加强哪些功能?


罗震霄:主要有以下计划:


  • Unified Indexing Service,为用户提供方便的一键式导入。

  • Secure Druid,完整的 Druid 信息安全,包括 LDAP Authentication and Authorization。

  • Pushdown for Presto Druid Connector,用 Presto 为 Druid 提供完整的 SQL 分析,并充分发挥 Druid 的性能优势,包括 Predicate Pushdown, Aggregation Pushdown,Limit Pushdown。


QCon北京2020的演讲中,罗震霄老师将会分享 Twitter 在 ZB 级实时数据分析实践中遇到的经验和教训。还有多位国内外一线互联网企业的技术专家为大家分享新的实时计算和数据分析技术发展趋势,大量真实生产实践案例或许能给你带来新的启发,点击了解详情


2020-03-11 17:212331

评论

发布
暂无评论
发现更多内容

别再这么写代码了,这几个方法不香吗?

楼下小黑哥

Java 重构

Kafka.07 - 性能优化介绍

insight

kafka 2月春节不断更

产品0期 - 第五周作业

曾烧麦

产品训练营

工作日志2-23

技术骨干

揭秘京东城市时空数据引擎—JUST如何助力交通流量预测

京东科技开发者

JUST 流量预测

Linux 入门篇 —— 重定向与管道符

若尘

Linux 管道符 linux开发

话题讨论 | 在中国程序员工作是青春饭吗?

happlyfox

话题讨论 2月春节不断更 话题王者

程序员成长第十二篇:做好项目计划

石云升

项目管理 程序员 28天写作 2月春节不断更

批量下载,我有妙解~

Viktor

JavaScript iframe 跨域

新思科技静态应用安全测试帮助Cryptsoft公司提高软件安全和质量水平

InfoQ_434670063458

云原生2.0时代:企业更应了解一下容器安全

华为云开发者联盟

容器 云原生 安全 漏洞

Centos7配置librdkafka运行时

happlyfox

Centos 7 28天写作 2月春节不断更

【文末彩蛋】数据仓库服务 GaussDB(DWS)单点性能案例集锦

华为云开发者联盟

sql 数据仓库 数据

技术干货 | 趣谈哈希表优化:从规避 Hash 冲突到利⽤ Hash 冲突

百度开发者中心

算法 数据结构和算法

Oracle sqlldr快速导入和sqluldr2快速导出

阳光下、慵懒的熊

数据库

华为云“网红”语言Python课程来啦!

华为云开发者联盟

Python

LeetCode题解:718. 最长重复子数组,动态规划,JavaScript,详细注释

Lee Chen

算法 大前端 LeetCode

腾讯位置服务开发应用

我是哪吒

28天写作 2月春节不断更 腾讯地图 腾讯位置服务开发应用 腾讯位置

【LeetCode】转置矩阵Java题解

Albert

算法 LeetCode 28天写作 2月春节不断更

高手来啦!十八般武艺保护你的Web应用

云计算

感性赢了理性那一面——浅谈峰终定律

Justin

心理学 28天写作

可能是Java Stream的最佳实践(二)

ES_her0

28天写作

教你如何在Python中读,写和解析CSV文

华为云开发者联盟

Python csv

厘清 I/O 模型

sakila

网络编程 I/O

谁手握账本?趣讲 ZK 的内存模型

HelloGitHub

Java zookeeper ZooKeeper原理

揭开《钢铁侠》AI管家贾维斯神秘面纱的扛鼎之作!

博文视点Broadview

使用Kong作为微服务网关

行者AI

kong

开工来面试了几十个人,一言难尽

yes

面试

第一篇文章

棉花糖

处理XML数据应用实践

华为云开发者联盟

xml 数据库 数据 XML文档 GaussDB(DWS)

基于matlab的控制系统与仿真4-判断系统稳定性

AXYZdong

matlab 2月春节不断更

Twitter 如何应用 Druid 分析 ZB 级实时数据?_开源_Tina_InfoQ精选文章