【AICon】探索RAG 技术在实际应用中遇到的挑战及应对策略!AICon精华内容已上线73%>>> 了解详情
写点什么

万亿级日访问量下,Redis 在微博的 9 年优化历程

  • 2019-10-29
  • 本文字数:6251 字

    阅读完需:约 21 分钟

万亿级日访问量下,Redis在微博的9年优化历程

本文由 dbaplus 社群授权转载。

一、Redis 在微博的应用场景

Redis 在微博内部分布在各个应用场景,比如像现在春晚必争的“红包飞”活动,还有像粉丝数、用户数、阅读数、转评赞、评论盖楼、广告推荐、负反馈、音乐榜单等等都有用到 Redis。

1、业务 &规模 &挑战


线上的业务有前面提到的信息流、广告、用户关系等等,还有现在大家可能比较感兴趣的热搜,用户一般会去看发生了什么事情,还有引爆阅读量的话题,以及现在兵家必争之地的视频,微博大大小小的业务都有用到 Redis。


线上规模方面,微博有 100T+存储,1000+台物理机,10000+Redis 实例。


关于面临的挑战,我们每天有万亿级的读写,线上的响应时间要求也比较高。


举一个简单的例子,我们部署资源是跨机房部署,但是有一些业务部门连跨机房部署存在的多余两毫秒的延迟都要投诉反馈(真的是臣妾做不到啊,如果单机房故障了呢?有些业务方真是异想天开)。响应时间基本上四个 9 是 20 毫秒。


成本的话因为我们线上有大量需求是上 T 的,所以成本压力其实也特别大。

2、技术选型


上图是微博数据库的技术选型,其实可以看到这里面不仅仅包含 Redis 等 NoSQL,还有队列、存储,如果以后有机会的话可以给大家分享一下从 0 到 1 搭建微博的数据库,在内部分享的时候大概花了 2-3 个小时,时间有限,这次就只讲 Redis 这一部分。

3、优化

从 2010 年开始,我们就基于官方的 2.0 版本引进 Redis,到现在已经有九个年头了,我们主要做了以下这些方面的改进:


  • Redis 编码格式,在特殊场景下可以节省 30%的空间;

  • 主从库方面有独立的复制线程;

  • 我们定制化一些数据结构,比如:LongSet 数据结构,它是一个“固定长度开放寻址的 Hash 数组”,减少 Redis dict 很多额外的指针开销;

  • 在主从复制方面,独立复制线程 + 完全增量复制,这样的话,如果网络主从临时断了,只要从当前的 pos 点同步数据就行;

  • 在持久化方面,我们是全量的 RDB 加增量的 AOF 复制;

  • AOF 写入/ 刷盘,主线程—>BIO,避免了因为写入导致的阻塞;

  • 落地时间,不可控—>cronsave 可控;

  • 增加 aofnumber,设置 AOF 数量,避免因为写入过快,磁盘写满;

  • 高可用, Redis 的 HA 我们并没有用官方的或者社区开源的,用的是我们自己开发的一套 Redis HA,保障在故障的情况下,能快速进行切换。


微博有大量的技术场景,比如转评赞、阅读数等,对于一些用户来说,他们是很关心这些指标的。


如果我们用原生的 Redis,会浪费大量的存储空间,因为它的产品特别特殊,它的 key 是一个用户的 id,value 是数字,我们自己内部最早改了一版叫 RedisCounter,它相当于只维持了一个哈希表,节省了大量的 Redis 内存空间。


当然它有一个缺点就是当初是短平快地上线了,所以它只支持单个列和单个表,如果你要存转发,评论,赞 3 个计数的话需要部署三套资源,这样一来大家访问微博取这 3 个数的速度会变慢。


而且需要维护 3 套资源,为了应对这种场景,我们支持了多列和多表的方式,如果一个表写满了,可以继续写下一个表,写到最后一个表时,我们可以把前面的表滚到盘里面,但是这个时候是不可读的。


为了解决不可读的问题,我们想了一个办法,把表都放在磁盘里面,维护 ddb 的数据结构,在这样的落地方式下,就可以把最近的热数据放在内存里面,把冷数据或者历史数据放在磁盘里面。


之前统计了一下,在线上 90%多的情况下,用户只访问几个月的数据,所以一些长尾数据可以靠从磁盘中读取数据来解决,也不影响用户体验。


微博还有一些存在性判断的行为,比如是否赞过、是否阅读过,这些全量的数据特别大,如果用 Redis 的话对内存成本花费特别大。


所以我们改造了一版服务,它是一个兼容 Redis 协议,基于 BloomFilter,开发了一版 phantom,高性能,单线程网络处理机制,与 Redis 性能相当,低存储空间,每条记录占用 1.2*N 字节(1%的误判率,每增加 0.6*N 字节误判率下降为原来的 1/10,N 为单个槽位占用的 bit 数)。


当然还有其他像我们最近用的队列、MySQL 等等其他类型的数据库,这边就不展开了。简单做一下 Redis 第一阶段优化的小结:


  • 无阻塞落地

  • 增量复制 -> RDB+AOF

  • 在线热升级

  • 关系 graph 定制

  • 内存降为 1/10

  • 性能相当

  • 计数定制化

  • 内存降为 1/4

  • 性能提升 3-5 倍

  • BloomFilter


但是我们做了这么多优化还是跟不上业务的需求。

二、Redis 在微博的优化

首先需要明白为什么要优化,我们一般从三个方面进行考虑:


首先是业务方。目前线上的业务方需要关心资源的分布、容量规划等多方面,比如内存是否满了、磁盘是否满了、如果用 MySQL 的话是否要提前分库分表、QPS 是否能扛住。


我们希望把这些问题对业务方屏蔽,他们只管用,而不用关心太多涉及到资源细节的方面。


第二是 DBA。虽然现在微博已经不是处于高速增长的状态了,但实际上它也还是以一定的速度在增长,所以对 DBA 来说,需求还是特别多的。


加上我们部门是承接微博所有的数据库的服务,有微博最多的服务器,因此对于我们来说,需求多,变更多,挑战大。


从设计的角度,我们要考虑如何设计 Redis 更合理。


总结了一下有三个方面:


一是高性能,读写快、访问快、响应时间快。


二是能够支持大容量的需求。


三是可扩展,因为接触的业务方比较多,就会发现一个问题,基本上没有几个业务方能把自己的需求描述得特别清楚,经常上线之后才发现内存不够了,或者写入扛不住了,所以这个时候我们需要在可扩展性方面提供一个强有力的支持。


我们可以把这三个方面解释为三座大山。

1、Cache Service 服务化

为了解决三座大山,首先要把 Cache 服务化,它是一个多级缓存的服务,能够解决高访问、高并发的问题以及实现高可用。


基于这套系统,也设计了一套后台程序,根据微博的流量进行自动监测、能够支持自动扩缩容,这样能快速扛过峰值,峰值过去之后又回收机器,实现了对资源的充分利用。


当然这套系统还在持续完善中,希望未来能做到更智能。


ConfigService 就是我们把配置放在配置中心里面,Client 再从配置中心里面拉取配置。


一共有两种访问方式,第一种是 SDK,第二种是支持多语言的,通过 Proxy 把请求路由到后端的 Cache 里面。DBA 只要通过管理平台就可以对资源进行快速扩缩容。



现在讲一下多级的 Cache,实际上这里面有四个角色:master、maste-l1、slave、slave-l1。


master 跟 slave 没有同步关系,只是按角色作用的方式命名的,master-l1 有多组数据来扛热点,master 是基准数据保存全量数据,slave 一般是做多机房的容灾,slave-l1 做多机房的数据同步,这个同步只保证最终数据的一致性。



以读取作为例子来说一下流程,读取是先访问 master-l1,如果没有命中会访问 master,如果又没有命中会访问到 slave,通过这 3 层,大部分情况下能把 99%的热点给扛住,然后还有 1%的流量才会落到 MySQL 里面。


假如是 100 万的读,穿透到 MySQL 只有一万 QPS,如果 100 万的读全部都打到 MySQL 的话,对于 MySQL 而言成本特别高,而且大家知道,MySQL 在高并发读写情况下,很容易被打死,且在短时间内是恢复不了。


Cacheservice 目前支持 mc 和 Redis 协议 2 种协议。



上图是我们 DBA 操作的扩缩容的界面,这个业务总共有 20 组,每组有 5 个 IP,5×20=100 个实例,实际上就是一百个实例在里面提供服务,线上有好多个单个集群服务,可以支撑百万甚至千万 QPS 的高并发访问,而且可以支持快速的扩缩容。


分享一下我们之前的成功案例,我们已经实现好几年的春晚 1000+台阿里云 ECS 弹性扩缩容,多次实现无降级平滑过渡,高峰期支持微博 50%的春晚核心流量。



上图是我们内部为了支持系统而进行的系统整合,在这边就不展开了。

2、mcq 服务化

基于前面的 Cache 服务化,我们在 2018 上半年跟业务方一起合作,把队列也给服务化了。


为什么要把队列单独提出来呢?是因为经常有内部或外部的人问,你们发微博是什么样的流程?你们发评论是什么样的流程?数据怎么解决?


这些问题很关键的一环就是在队列里面,发微博的时候实际上是先写到队列,然后队列再写到后端的 MySQL 里面,如果这个时候 MySQL 宕机了,我们会有一个修复队列,专门有一个 Key 来存这部分的数据,等 MySQL 恢复以后再把这部分数据写入到 MySQL 里面。




上面还有一个 BCP,是因为当初我们在做这一套的时候,实际上是想在整个微博推广。


去年比特币特别火,我们也想通过购买比特币的方式,在内部通过机器的资源或者内部开源的一些东西来做等价物质的转换,然后来应用这个服务,但是最终这个计划没有具体落地。



上图是一键告警以及操作的监控图。


前面提到我们把 Cache 服务化了,但是实际上并没有很好地解决容量过大的问题,虽然现在内存的价格一直在下降,但相对硬盘来说价格还是太高。


如果我们经常有像 5T 或者 10T 的业务,并且全放内存里面的话,对于我们成本的压力实际上是特别大的。


而且我们需要向专门的成本委员会申领资源,只有成本委员会同意了我们才能拿到这些机器,整个周期时间长。

3、如何解决 Redis 容量过大?

为了解决容量过大的问题,我们想把容量从内存放到磁盘里面。


我们当时考虑了一些特性,比如支持冷热数据的分离,比如把历史的数据或者全量的数据全部存在磁盘,然后支持持久化、支持数据主从复制、支持在线热升级,需要兼容 Redis 数据类型,还要兼容与 Redis 的复制。


基于前面的场景,像微博这种属性特别适合用这种方法,就算冷热数据不明显,比如上 T,每秒几 K 访问的情况,用这个方法也特别合适。



下面讲一下处理模块,里面有主线程和后台线程。


主线程主要处理连接的请求、协议的解析以及命令的请求,后台线程主要是复制线程,还有像 BIO 线程,我们把像刷盘操作是写 AOF 都是放在这个线程,这样可以尽可能减少写入所造成的对 Redis 的阻塞。


还有一个 Bloom Filter,是基于布谷鸟算法来优化,初始化的时候指定 Filter 的容量,新增双向链表管理 Hash 冲突。



从这个名字大家可以猜到,是 Redis+RocksDB 的结合,为什么这个时候我们不像前面提到的类似设计 CounterserviceSSD 那样自己设计,其实主要原因是当初我们在设计时 RocksDB 还没有非常多大规模的应用。


现在 RocksDB 已经特别成熟,而且有非常多成功的案例。我们还有一个不自己开发的原因,就是如果自己开发的话,可能适用性或者性能,以及代码健壮性反而没有那么好,所以为了节省时间我们采用了 RocksDB 来做存储,避免重复造轮子。


LRU 是为了加快访问速度的,如果第一次访问的时候没有在内存里面读取到,就从磁盘里面读取,它实际上会放在内存,下次你再读取的时候会从 LRU 里面读取出来。


这边还涉及到数据从内存到磁盘换入换出,如果 key 或者 value 特别大的话,性能会有影响。这就是前面提到的为什么我们不推荐那种特别大的 key 或者 value 用 RedRocks。


把前面的处理模块和后端整合一下就形成了以下这样的架构图。



对其做一下小结:


  • 简单易用:完全兼容 Redis,业务方不用做任何改动就可以迁移上;

  • 成本优势:把热点数据或者频繁访问数据放在内存,全量的数据全部放磁盘,这是一个特别大的优势,可以突破内存容量限制;

  • 高性能:热点数据在内存,热点数据访问性能和 Redis 相当。


下图是性能压测报告,我们对比了 set 的随机对写。


4、仍满足不了新需求?

我们前面已经解决了大容量的问题,但还是有很多困难并没有得到很好的解决。


因此,我们借鉴了开源经验,也调研了 Twemproxy、Codis、Corvus、Redis-Cluser 这些功能:



实际上我们在 2015 年就已经存在基于 Twemproxy 的业务,在线上的话像微博音乐、微博健康、通行证这 3 个业务已经上线。


但是我们没有在内部大范围推广开来,其中涉及到 2 个主要的原因,第一就是迁移还是比较费时间,第二是无法比较完美的动态增加节点,还有内部一些其他原因等等的约束。



以上是我们的设计思路,一是能支持在线扩缩容,二是支持多语言的访问,因为我们是要对整个公司进行推广的,而不是说只对一个部门,所以为了推广方便我们必须有这种功能,三是对服务化特性的需求。




下面简单讲一下 proxy 里面各模块的功能:


port 自动增删和监听:根据 Vintage 对本 proxy 节点的配置,自动增加监听的端口或者删除移除的端口,监听客户端的连接。


Redis 协议解析:解析 Redis 协议,确定需要路由的请求,非法和不支持的请求直接返回错误。


路由:需要获取和监听端口对应的 backend 以及它们的 slot, 根据端口、key 和 Redis 命令选择一个 backend, 将请求路由到对应的 backend,并将结果返回给客户端。


配置监控:监控 Vintage 中本 proxy 的配置,包括端口的变动、端口和 backend 的变动以及 slot 的变化等,通知端口监听模块和路由模块。


指标监控:需要将 Metrics 发送到 Graphite 中进行监控。


日志记录:生成日志文件以便跟踪。



Redis 存储方面:还是沿用我们内部改造的 Redis 版本,相对之前线上的版本,这次我们新增了官方比如 Mememory,内存编码的优化,以及内部新增的一些新的功能。



关于集群管理方面,无论是 Redis 也好,MySQL 也好,对资源的任何管理都可以用这个来总结,包括五个部分:资源申请,资源分配,业务上线,资源查询,资源变更。


对于业务申请这一方面需要有一个业务唯一的标识,QPS、数据类型是怎样的,基于这些考察我们再对它进行分配、配置、部署。


基于前面我们做了那么多的优化以及平台服务化,用下图作为总结比较合适,就相当于服务的高可用、高性能以及可扩展这些方面,我们基本上都用前面这一套方案解决了。


三、未来展望

无论是最开始的 MySQL 也好还是到后面的 Oracle 也好,这些都离不开 SQL。如果我们能把数据一致性解决好的话,Redis 的应用场景会更广。


现在有很多公司对 Raft 做了二次开发,后续我们也会投入到在这方面中。



借用两句话结束今天的演讲:“数据库实际上是需要你用最快的速度把数据存储下来,然后以最方便的方式把数据给回忆起来。”


谢谢大家!

Q & A

Q1:刚才您说您这边有一个新的类型叫 LongSet,能不能说一下它的应用场景?


A:应用场景是在关系判断这个场景下,在微博关注 Cache 化改造中,需要把 Redis 当做 Cache 用存储用户的关注列表,原定方案是使用 Hash 结构。


但是由于 Redis 是做 Cahce 使用,key 可能会被剔除,所以在判断用户是否关注某人的时候,可能不存在,这时就需要从数据库拉用户的关注列表直接 HMSET 到 Hash 结构中。


但是 Redis 在一次 HSET 多个 field 的时候,性能是比较低的,并且会堵塞其它的请求。


同时在仿真压力测试过程中发现,在 Cache 为空的情况下,必须要逐步放量填充 Cache 后,业务才能达到稳定。


这种情况下,对运维的压力比较大,容错很低,违背了我们 Cache 化的初衷,所以才有了这一次的改造。


为了解决 Redis Hash 结构 HMSET 性能较低及内存利用率较低的问题,对 Redis 进行了定制化改造,增加了一种新的数据结构 LongSet,用来存储元素为 long 类型的集合。


Q2:您刚刚解释的是热数据放在 Redis,初始放在 RocksDB,什么时候调用这个数据?什么时候调用那个数据?肯定是有一张表吧?


A:读取流程是,先读取内存中的数据,这个内存大小是可以动态调整的,和官方的 maxMemory 参数是一致的,内存中只保留一部分的数据,如果内存中的数据没有读取到,才会从磁盘里面读取数据。


作者介绍


兰将州,新浪微博核心 feed 流、广告数据库业务线负责人,主要负责 MySQL、NoSQL、TiDB 相关的自动化开发和运维,参与 Redis、counteservice_ssd、memcacheq 相关代码的开发,目前关注分布式系统。


原文链接


https://mp.weixin.qq.com/s?__biz=MzI4NTA1MDEwNg==&mid=2650782429&idx=1&sn=7f2df520a7295a002c4a59f6aea9e7f3&chksm=f3f90f48c48e865e478d936d76c5303663c98da506f221ede85f0f9250e5f897f24896147cfb&scene=27#wechat_redirect


2019-10-29 08:005514

评论

发布
暂无评论
发现更多内容

【盲盒APP商城系统】在线拆盒后的功能介绍

WDL22119

盲盒小程序开发 盲盒APP开发 盲盒源码 盲盒H5开发 盲盒系统开发

自助洗车或许要比自动洗车更干净

共享电单车厂家

自助洗车 自助洗车加盟 车白兔自助洗车 自动洗车

结合pyqt5开发办公文档一键转换软件,以后再也不用开会员转文件了

迷彩

打包 7月月更 自动化办公

专业创作本华硕ProArt 创16 2022预售,高效创作新旗舰

科技热闻

自助洗车费用居然比雪糕还便宜?

共享电单车厂家

自助洗车加盟 车白兔自助洗车 自助洗车费用 自助洗车价格

到底什么是自助洗车?来科普下

共享电单车厂家

自助洗车加盟 车白兔自助洗车 什么是自助洗车

Pr视频剪辑师如何选笔记本?华硕灵耀Pro16 2022带你玩转内容创作

科技热闻

单元测试,写起来到底有多痛?你会了吗

C++后台开发

网络编程 单元测试 后端开发 Linux服务器开发 C++开发

从一线开发到技术总监,你就差一个赶鸭子上架

融云 RongCloud

程序员

自助洗车加盟要满足什么条件

共享电单车厂家

自助洗车加盟 车白兔自助洗车

【Docker 那些事儿】初始 Kubernetes 容器管理平台(上)

Albert Edison

Docker Kubernetes 容器 云原生 7月月更

TMECH发表优必选运控技术最新进展:实现人形机器人高鲁棒性行走

优必选科技

ES6 类聊 JavaScript 设计模式之创建型模式

devpoint

JavaScript 设计模式 工厂模式 7月月更 创造性模式

如何有效规避代码被“投毒”?

安势信息

许可证 代码安全 开源软件 安全合规检测 开源软件供应链

云渲染,设计行业的“新贵”

Finovy Cloud

渲染 云渲染 GPU算力 渲染技术

SpringBoot到底是什么

华为云开发者联盟

开发 springboot parent

ICASSP 2022 | 用于多模态情感识别的KS-Transformer

优必选科技

人工智能 多模态机器学习

适合新手的12个Mybatis-Plus常用注解

华为云开发者联盟

后端 开发

Python函数默认参数避坑指南

和牛

测试

从云原生到智能化,深度解读行业首个「视频直播技术最佳实践图谱」

阿里云视频云

音视频 直播 视频云

阿里云联合平行云推出云XR平台,支持沉浸式体验应用快速落地

阿里云弹性计算

视觉计算 云XR平台

业务出海,灵感乍现前要先「把手弄脏」

融云 RongCloud

视频聊天源码——一对一直播系统源码

开源直播系统源码

软件开发 直播系统源码 开源源码

执行ls /dev/pts为什么这么慢?

BUG侦探

内核 ebpf devpts

那一年,春晚拓荒牛背后的故事

优必选科技

机器人

商城异地多活架构设计

泋清

#架构训练营

自助洗车为洗车行业注入新活力

共享电单车厂家

自助洗车 自助洗车加盟 车白兔自助洗车 洗车行业市场

龙蜥社区发布首个 Anolis OS 安全指南 为用户业务系统保驾护航

OpenAnolis小助手

阿里云 操作系统 龙蜥社区 sig 统信软件

海外APP推送(上篇):厂商通道与谷歌FCM通道的差异

极光JIGUANG

带你认识一下数仓的分区自动管理

华为云开发者联盟

数据库 后端 分区

让软件开发民主化的低代码

力软低代码开发平台

万亿级日访问量下,Redis在微博的9年优化历程_数据库_dbaplus社群_InfoQ精选文章