写点什么

redis 哈希表的 rehash 分析

  • 2019-11-26
  • 本文字数:2528 字

    阅读完需:约 8 分钟

redis哈希表的rehash分析

大家都比较了解哈希表,以及类似 php、redis 等的内部 hash 实现。但是本文着力介绍 redis 中的 rehash 的实现,供大家参考学习。

引言

redis 的性能优越,应用普遍,可以存储键值个数大到可以存储上亿条记录依然保持较高的效率。作为一个内存数据库,redis 内部采用了字典的数据结构实现了键值对的存储,字典也就是我们平时所说的哈希表。随着数据量的不断增加,数据必然会产生 hash 碰撞,而 redis 采用链地址法解决 hash 冲突。我们知道如果哈希表数据量达到了一个很大的量级,那么冲突的链的元素数量就会很大,这时查询效率就会变慢,因为取值的时候 redis 会遍历链表。而随着数据量的缩减,也会产生一定的内存浪费。redis 在设计时充分考虑了字典的增加和缩减,为了优化数据量增加时的查询效率和缩减时的内存利用率,redis 进行了一系列操作,而处理的这个过程被称作 rehash。

两个 hashtable

我们先来看一下字典在 redis 源码中的定义


// 哈希表定义typedef struct dictht {    dictEntry **table;    unsigned long size;    unsigned long sizemask;    unsigned long used; } dictht;
// 字典定义typedef struct dict { dictType *type; void *privdata; dictht ht[2]; /* 两个hashtable */ long rehashidx; /* rehashing 如果没有进行则 rehashidx == -1 否则 rehash则表示rehash进行到的索引位置 */ unsigned long iterators; /* number of iterators currently running */} dict;
复制代码


从结构上看每个字典中都包含了两个 hashtable。那么为什么一个字典会需要两个 hashtable?首先 redis 在正常读写时会用到一个 hashtable,而另一个 hashtable 的作用实际上是作为字典在进行 rehash 时的一个临时载体。我们可以这么理解,redis 开始只会用一个 hashtable 去读写,如果这个 hashtable 的数据量增加或者缩减到某个值,到达了 rehash 的条件,redis 便会开始根据数据量和链(bucket)的个数初始化那个备用的 hashtable,来使这个 hashtable 从容量上满足后续的使用,并开始把之前的 hashtable 的数据迁移到这个新的 hashtable 上来,当然这种迁移是对每个节点值进行一次 hash 运算。等到数据全部迁移完成,再进行一次 hashtable 的地址更名,把这个备用的 hashtable 为正式的 hashtable,同时清空另一个 hashtable 以供下一次 rehash 使用。


1 rehash 的条件

hashtable 元素总个数 / 字典的链个数 = 每个链平均存储的元素个数(load_factor)


1.服务器目前没有在执行 BGSAVE 命令或者 BGREWRITEAOF 命令,load_factor >= 1,dict 就会触发扩大操作 rehash


2.服务器目前正在执行 BGSAVE 命令或者 BGREWRITEAOF 命令,load_factor >= 5,dict 就会触发扩大操作 rehash


3.load_factor < 0.1,dict 就会触发缩减操作 rehash

2 rehash 的过程

我们假设 ht[0]为正在使用的 hashtable,ht[1]为 rehash 之后的备用 hashtable


步骤如下:


  • 为字典的备用哈希表分配空间:

  • 如果执行的是扩展操作,那么备用哈希表的大小为第一个大于等于(已用节点个数)*2 的 2n(2 的 n 次方幂)

  • 如果执行的是收缩操作,那么备用哈希表的大小为第一个大于等于(已用节点个数)的 2n

  • 在字典中维持一个索引计数器变量 rehashidx,并将它的值设置为 0,表示 rehash 工作正式开始(为-1 时表示没有进行 rehash)。

  • rehash 进行期间,每次对字典执行添加、删除、查找或者更新操作时,程序除了执行指定的操作以外,还会顺带将 ht[0]哈希表在 rehashidx 索引上的所有键值对 rehash 到 ht[1],当一次 rehash 工作完成之后,程序将 rehashidx 属性的值+1。同时在 serverCron 中调用 rehash 相关函数,在 1ms 的时间内,进行 rehash 处理,每次仅处理少量的转移任务(100 个元素)。

  • 随着字典操作的不断执行,最终在某个时间点上,ht[0]的所有键值对都会被 rehash 至 ht[1],这时程序将 rehashidx 属性的值设为-1,表示 rehash 操作已完成。


rehash 部分源码:


int dictRehash(dict *d, int n) {    int empty_visits = n*10; /* Max number of empty buckets to visit. */ /* 判断字典是否在进行rehash */    if (!dictIsRehashing(d)) return 0;
while(n-- && d->ht[0].used != 0) { dictEntry *de, *nextde; /* Note that rehashidx can't overflow as we are sure there are more * elements because ht[0].used != 0 */ assert(d->ht[0].size > (unsigned long)d->rehashidx); /* 找到不为空的hashtable的索引位置 while(d->ht[0].table[d->rehashidx] == NULL) { d->rehashidx++; if (--empty_visits == 0) return 1; } de = d->ht[0].table[d->rehashidx]; /* 将bucket从旧的哈希表迁移(hash)到新的哈希表 */ while(de) { uint64_t h; nextde = de->next; /* 获得节点在新hashtable的哈希索引值 */ h = dictHashKey(d, de->key) & d->ht[1].sizemask; de->next = d->ht[1].table[h]; d->ht[1].table[h] = de; d->ht[0].used--; d->ht[1].used++; de = nextde; } d->ht[0].table[d->rehashidx] = NULL; d->rehashidx++; }
/* 检查rehash是否全部完成,如果完成则将旧的hashtable释放并作新旧表更名,同时rehashidx置-1 */ if (d->ht[0].used == 0) { zfree(d->ht[0].table); d->ht[0] = d->ht[1]; _dictReset(&d->ht[1]); d->rehashidx = -1; return 0; }
/* rehash没有完成返回1,继续....... */ return 1;}
复制代码


举个例子


rehash 开始,初始化 ht[1]



对 k2 进行 rehash



rehash 完成


总结

这种渐进式的 rehash 避免了集中式 rehash 带来的庞大计算量和内存操作,但是需要注意的是 redis 在进行 rehash 的时候,正常的访问请求可能需要做多要访问两次 hashtable(ht[0], ht[1]),例如键值被 rehash 到新 ht[1],则需要先访问 ht[0],如果 ht[0]中找不到,则去 ht[1]中找。


本文转载自公众号 360 云计算(ID:hulktalk)。


原文链接:


https://mp.weixin.qq.com/s/rBMmJVOcryrCEW8ZrKKVig


2019-11-26 16:522629

评论

发布
暂无评论
发现更多内容

Redis分布式锁一定注意两个坑

做梦都在改BUG

Java redis 分布式锁

什么是接口定义? 接口定义的概念和用途详解

Apifox

前端 接口 后端 API 接口定义

百度工程师的软件质量与测试随笔

百度Geek说

测试 软件质量 测试技术 智能测试 企业号 4 月 PK 榜

OceanBase 4.1 发版 | 一个面向开发者的里程碑版本

OceanBase 数据库

数据库 oceanbase

如何把Ai绘画工具放到我们的App中

Onegun

AI AIGC

AutoCAD安装无响应,需要在macOS上完全卸载Autodesk产品!

魔仙苹果mac堡

cad2024激活版 AutoCAD安装无响应 AutoCAD M1

从GitHub火到了头条!共计1658页的《java岗面试核心》,拿走不谢

做梦都在改BUG

Java java面试 Java八股文 Java面试题 Java面试八股文

技术不行还说Java卷!靠468页SpringBoot企业级项目实战成功逆袭

做梦都在改BUG

Java 微服务 Spring Boot 框架

Hybrid App 选用什么前端框架更好

Onegun

flutter React Native Hybrid

Java 源码重读系列之 HashMap

U2647

源码 hash map #java

Spring源码探索-核心原理下(AOP、MVC)

Java你猿哥

spring aop Spring MVC

未来已来,OpenHarmony 3.2 Release发布,迈入发展新阶段

OpenHarmony开发者

OpenHarmony

分享:作业帮在多云环境下的高可用双活架构优化实践

OceanBase 数据库

数据库 oceanbase

阿里巴巴内部Spring Cloud Alibaba 全彩 PDF 版手册开源

采菊东篱下

Java 微服务

【实践篇】基于CAS的单点登录实践之路

京东科技开发者

CAS SSO 单点登录 企业号 4 月 PK 榜

解密HTTP协议:探索其组成部分与工作原理

做梦都在改BUG

Java 计算机网络 网络协议 HTTP

聊聊简单又不简单的图上多跳过滤查询

华为云开发者联盟

大数据 后端 华为云 华为云开发者联盟 企业号 4 月 PK 榜

CUDA编程基础与Triton模型部署实践

阿里技术

cuda 模型部署

Github发布6天,Star55K+,这套笔记足够你拿下90%的Java面试

做梦都在改BUG

Java java面试 Java八股文 Java面试题 Java面试八股文

一文解读基于PaddleSeg的钢筋长度超限监控方案

飞桨PaddlePaddle

人工智能 图像识别 飞桨

数据解析NFT Q1市场表现:NFT生态正向Polygon聚拢,蓝筹项目"保值"难

NFT Research

数据分析 NFT

投放视频广告时,如何快速与第三方播放器兼容?

HMS Core

HMS Core

4月22日,云数据库技术沙龙【杭州站】

NineData

MySQL 数据库 开发者 Clickhouse 沙龙预告

分享:CUDB for OceanBase分布式数据库产品规模应用

OceanBase 数据库

数据库 oceanbase

ChatGPT背后的AI背景、技术门道和商业应用(万字长文,建议收藏)

京东科技开发者

人工智能 AI ChatGPT 人工智能ChatGPT 吗? 企业号 4 月 PK 榜

cad看图:MiniCAD 中文版

真大的脸盆

Mac Mac 软件 cad cad看图

横扫一线大厂面试的高并发笔记到底有多硬核?

小小怪下士

Java 程序员 后端 高并发 java面试

SpringCloud 网关实现线程池异步批量保存请求日志

Java你猿哥

spring Spring Cloud Java工程师 日志表

在桌面养只捣蛋鹅 Desktop Goose让你的mac桌面更有趣!

魔仙苹果mac堡

抖音桌面宠物鹅 桌面宠物鸭 Mac版 Desktop Goose怎么关闭 Desktop Goose下载

安全测试前置实践2-安全渗透测试

京东科技开发者

测试 安全测试 功能测试 网络安全渗透测试 企业号 4 月 PK 榜

使用Python实现一个简单的垃圾邮件分类器

海拥(haiyong.site)

三周年连更

redis哈希表的rehash分析_文化 & 方法_罗晓东_InfoQ精选文章