携程新一代监控告警平台Hickwall架构演进

2020 年 2 月 19 日

携程新一代监控告警平台Hickwall架构演进

监控告警是网站可用性的第一道防线,为网站提供更加实时可靠高效的监控告警,对互联网企业具有非凡的意义。致力于这个目标,经过不断地改进,携程新一代监控告警平台 Hickwall 在存储效率、查询速度和告警可靠性方面都有了极大的改善。


本文将从存储、聚合、告警三个方面介绍 Hickwall 在核心架构方面的演进。


一、架构演进概述


为了更好地了解 Hickwall 在核心架构方面的设计,我们首先将 Hickwall 第一代的架构和现有架构进行比较。


Hickwall 最初的研发是在 2015-2016 年,当时我们调研了业界知名的开源监控系统。


比如 Graphite,拥有非常好的生态,但是集群配置复杂,每个指标都采用一个文件存储,导致小文件多,iowait 高,并且使用 python 实现,性能方面不太令人满意。


再比如 OpenTSDB,基于 HBase 天然就支持分布式,但是也受限于 HBase,多维查询的时候性能比较差。而其他的监控系统也并未非常成熟,最后我们决定使用 ElasticSearch 作为存储引擎。下图是第一代的核心架构图。



在这个架构中监控数据从 Proxy 进来,经过格式整理、数据补全、限流后发送到 Kafka。Donwsample 消费 Kafka 中的原始数据进行时间维度上的聚合,聚合成 5m、15m 等时间维度的数据点之后写入到 Kafka。Consumer 消费 Kafka 中的原始数据和聚合数据写入到 ES,通过 API-Server 提供统一的接口给看图和告警。


因为 ES 的查询性能无法满足 Trigger 高频率的拉取需求,我们另外增加了 Redis 用来缓存最近一段时间的数据用于告警。这套架构初步实现了监控系统的功能,但是在使用过程中我们也发现以下几个问题:


  • 组件过多。运维架构追求的是至简至稳,过多的组件会增加部署和维护的难度。另外在团队人员变动的情况下,新成员进来无法快速上手。

  • 数据堆积。Consumer消费Kafka出现问题,容易导致Kafka中数据堆积,用户将无法看到线上系统的当前实时状态,直到将堆积的数据消费完。按照我们的实践经验,数据堆积的时间往往会有几十分钟,这对于互联网企业来讲是个非常大的问题。

  • 数据链条过长。监控数据从Proxy进来到Trigger告警需要依次经过6个组件,任何一个组件出现问题,都可能导致告警漏告或误告。


为了解决这些问题,我们研发了 Hickwall 的第二代架构,使用自研的 Influxdb 集群取代了 ES 作为存储引擎,如下图。



在这个架构中监控数据从 Proxy 进来分三路转发,第一路发送给 Influxdb 集群,确保无论发生任何故障,只要 Hickwall 恢复正常,用户就能立即看到线上系统的当前状态。


第二路发送给 Kafka,由 Downsample 完成数据聚合后将聚合数据直接写入到 Influxdb 集群。第三路发送给流式告警,这三路数据互不影响,即使存储和聚合都出现问题,告警依然可以正常工作,确保了告警的可靠稳定。


二、Influxdb 集群设计


ES 用于时间序列存储存在不少问题,例如磁盘使用空间大,磁盘 IO 使用多,索引维护复杂,写入和查询速度慢等。


而 Influxdb 是排名第一的时间序列数据库,能针对时间范围进行高效的查询,支持自动删除过时数据,较低的使用和维护成本。只是早期的 Influxdb 不够稳定,bug 比较多,直到 2017 年底。我们经过测试确认 Influxdb 已经足够稳定可以交付生产,就萌生了用 Influxdb 替换 ES 的想法。当然 Influxdb 存在单点问题,在 0.12 版本以后,官方的集群方案还闭源了。


为了解决 Influxdb 的单点问题,我们研发了 Influxdb 的集群方案 Incluster,如下图。



Incluster 并没有对 Influxdb 进行代码侵入式的修改,而是在上层维护关于数据分布和查询的元数据,因此当 Influxdb 有重大发布的时候 Incluster 能够及时更新数据节点。


客户端通过 Incluster 节点写入数据,Incluster 按照数据分布策略将写入请求转发到相关的 Influxdb 节点上,查询的时候按照数据分布策略从各个节点上读取数据并合并查询结果。在元数据这一层 Incluster 采用 raft 保证元数据的一致性和分区容错性,在具体数据节点上使用一致性 hash 保证数据的可用性和分区容错性。


Incluster 提供了三种数据分布策略 Series、Measurement 和 Measurement+Tag。通过调整数据分布策略,Incluster 能够尽量做到减少数据热点并在查询时减少查询节点。在实践过程中,我们使用 Measurement 策略来存储系统指标,如 CPU;使用 Measurement+Appid 策略来存储请求量。


作为一个分布式存储,磁盘损坏不可避免,灾备是必须考虑的问题。我们按照数据分布策略通过读取 Influxdb 底层的 TSM 数据文件,来恢复损坏的节点上面的数据。实践经验表明 Incluster 能够做到半个小时恢复一个损坏的节点。



在用户使用方面,Incluster 提供了对 InfluxQL 的透明支持,也提供了类 Graphite 语法用于配图。类 Graphite 语法可以简化配图语法,提供 InfluxQL 无法实现的功能,例如查询最近一段时间变化最剧烈的指标,除此之外还可以屏蔽底层存储细节,以后如果想使用比 Influxdb 更优秀的时间序列存储引擎,可以减少用户迁移成本。



三、数据聚合的探索


Influxdb 在数据存储和简单查询方面表现出色,但是在数据聚合上就存在一些问题。


Influxdb 提供了 Continuous Query Language(CQL)用于数据聚合,但是经过测试发现 CQL 内存占用较大。Influxdb 原本需要的内存就不小,在我们使用过程中 128G 内存已经使用了一半,如果再加上 CQL 的内存,容易造成节点不稳定。


另外 CQL 无法从不同的节点获取数据进行聚合,在 Incluster 集群方案中存在资源浪费维护复杂的问题。因此我们将数据聚合功能独立出来,在外部进行数据聚合后再将聚合数据写入到 Incluster。


时间维度的聚合是有状态的计算,我们面临两个问题。一个是中间状态如何减少内存的使用,另外一个是节点重启的时候中间状态如何恢复。


我们通过指定每个节点需要消费的 Kafka Partition,使得每个节点需要处理的数据可控,避免 KafkaPartition Rebalance 导致内存不必要的使用,另外通过对 Measurement 和 Tag 这些字符串的去重可以减少内存使用。中间状态恢复方面我们并没有使用保存 CheckPoint 的方法,而是通过提前一段时间消费来恢复中间状态。这种方式避免了保存 CheckPoint 带来的资源损耗。


业务场景聚合主要的挑战在于一次聚合涉及到的指标数太多,聚合逻辑复杂。例如某个应用的某个接口的请求成功率,涉及到的指标数目上千,这种聚合查询 Influxdb 无法支持的。


我们的解决方案是使用 ClickHouse 进行预聚合。ClickHouse 是俄罗斯开源的面向 OLAP 的分布式列式数据库,拥有极高的读写性能,并提供了强大的 SQL 语言和丰富的数据处理函数,可以完成很多指标的处理,例如 P95。


四、流式告警的实现


告警最简单的实现就是定时从数据库中拉取数据,然后检查一下数据是否有异常。但是这种 Pull 的方式对存储存在一定的压力,尤其是告警规则告警对象众多的时候,对存储的可靠性和响应时间有极高的要求。


我们经过研究发现告警数据在所有监控数据中占比其实不大,以携程为例只占了 8%,而且需要的绝大部分都是最近几分钟的数据,如果我们能从数据流中直接获取所需要的数据,就能过滤掉大部分不必要的数据,避免对后台存储的依赖,让告警变得更加可靠实时。


实现流式告警最大的挑战是数据订阅。我们不可能让每一个告警规则都去消费一遍数据流,最好的方式是消费一遍数据流然后将告警数据准确的分发到告警上下文中。


在这里如何降低数据分发的时间复杂度和空间复杂度是最大的难点。


Hickwall 的实现思路是减治法,通过 Measurement 精确匹配减少下一步需要匹配的规则数量,通过 tagValue 的布隆过滤器判断是哪个 Trigger 节点需要的数据。Trigger 节点收到数据以后对数据点进行精确的匹配过滤,转发到具体的告警上下文中。


这个方案的优势在于时间复杂度不随规则数量告警对象而线性增长,空间复杂度不随 tagValue 的长度而增长。



Hickwall 使用 Akka 框架进行告警逻辑和告警数据的处理。Akka 是异步高并发的框架,提供了 Actor 编程模型,能够轻松实现并发地处理数据和执行告警逻辑。


生产系统是个时刻变化的系统,每时每刻都可能有机器上下线,每时每刻都可能有应用发布变更,随着这些变动告警系统需要随之增删告警对象和修改告警阈值。而 Actor 的创建删除是非常轻量的,为生产系统提供了非常友好的抽象,降低了开发成本。


Hickwall 使用了 RocksDB 来缓存告警数据,通过 JNI 直接嵌入到 Trigger 实例中。RocksDB 是 Facebook 开源的 KV 数据库,基于 Google 的 LevelDB 进行了二次开发,底层存储使用 LSM Tree,拥有极高的写入速率。


无停滞的处理数据在流式告警中是非常重要的,使用 RocksDB 能够减少 JVM 中的对象,减少内存的使用,进而减少了 JVM GC 的压力。



在用户使用方面,Hickwall 提供了基于 JS 语法的 DSL 语言,Init DSL 负责数据的订阅和接收到数据后的处理工作,提供了 groupBy、filter、exclude、summarize 等流式计算中常见的数据处理函数,Run DSL 负责具体的告警逻辑,判断是否有异常。


考虑到 DSL 书写有一定的难度,Hickwall 提供了语法检查、历史数据回测等功能,帮助用户书写出符合需求的告警逻辑。



作者介绍


陈汉,携程网站运营中心研发工程师,从事 Hickwall 监控告警平台的研发工作。 经历了 Hickwall 项目的雏形到交付生产再到不断改进,通过整个开发过程,对监控领域有了深入的了解。喜欢探究系统的底层原理,对分布式有浓厚的兴趣。


本文转载自公众号携程技术(ID:ctriptech)。


原文链接


https://mp.weixin.qq.com/s/wkcu8edFbnQFwcqtN_Gd0w


2020 年 2 月 19 日 20:31271

评论

发布
暂无评论
发现更多内容

同城双活与异地多活架构分析

vivo互联网技术

架构 高可用 架构设计 高可用系统的架构

智能商业时代的思考(二)网络协同抓住用户

刘旭东

微信 商业价值 数据智能 网络协同 商业智能

ARTS打卡Week 12

teoking

为什么互联网巨头们纷纷使用Git而放弃SVN?(内含Git核心命令与原理总结)

冰河

git 冰河 代码管理 代码仓库 分支合并

PB级大规模Elasticsearch集群运维与调优实践【>>戳文章免费体验Elasticsearch服务30天】

小小的一朵云

大数据

鹰眼 | 分布式日志系统上云的架构和实践

小小的一朵云

大数据

程序的机器级表示-异构的数据结构

引花眠

计算机基础

Spring 5 中文解析测试篇-Spring MVC测试框架

青年IT男

单元测试 Spring5

ARTS打卡 第16周

引花眠

微服务 ARTS 打卡计划

ASP.NET Core 性能优化最佳实践

newbe36524

微服务 性能优化 .net core ASP.NET Core

ARTS 打卡 (20.09.07-20.09.13)

小王同学

你必须要了解的「架构」小历史

码农田小齐

spring Spring Cloud Spring Boot

Elasticsearch索引容量管理实践【>>戳文章免费体验Elasticsearch服务30天】

小小的一朵云

大数据

看动画学算法之:排序-快速排序

程序那些事

排序 快速排序 数据结构和算法 看动画学算法

安全相关总结

oeasy教您玩转 linux 010213 中文 fcitx

o

神盾首创非对称联邦学习,深度保障数据隐私

小小的一朵云

大数据

极客大学-架构师训练营

9527

ARTS Week16

时之虫

ARTS 打卡计划

导致系统不可用原因及密码验证

03 Spring Security 入门实例

哈库拉玛塔塔

Spring Boot kotlin spring security

简述C语言宏定义的使用

C语言与CPP编程

c c++ 编程语言

哦!这该死的 C 语言

cxuan

c 后端

java中实现List集合中对象元素按其属性的中文拼音排序

Shae

Mysql学习笔记:InnoDB事务和ACID模型

马迪奥

MySQL innodb

前端 10 问之 Docker (第一篇)

局外人

Docker

链表中移除重复节点,保罗·格雷厄姆的传奇博客,Mac三指拖动操作,大数据平台 John 易筋 ARTS 打卡 Week 17

John(易筋)

ARTS 打卡计划 大数据平台 链表移除相同节点 保罗格雷厄姆 mac三指操作设置

图计算黑科技:打开中文词嵌入训练实践新模式

小小的一朵云

大数据

从linux源码看epoll

无毁的湖光

Linux TCP Linux Kenel

CountDownLatch 瞬间炸裂!同基于 AQS,凭什么 CyclicBarrier 可以这么秀?

程序员小航

Java 源码 AQS 源码阅读 CyclicBarrier

数据结构与算法系列之数组

书旅

数据结构 算法 数组 数据结构与算法

携程新一代监控告警平台Hickwall架构演进-InfoQ