背景
20200401日  北京马驹桥db_ad_gedeng_dynclip_device_info集群跟往常一样导入约400万数据,集群内存却猛涨了约55G,BI导入的同学反馈没有变更。 


其他现象:
该集群一共有60个主节点,其中有四个节点内存增长不明显,其他节点均瞬间增长了1G,并在增长了之后又降低了约500M。



同时发现增长1G内存的节点内存碎片率发生了抖动,内存增长不明显的4个节点未抖动。

 
在查看codis-dashboard之后,发现未增长的节点分片为18,其他增长的节点为17。查找相关资料后发现是由于17个分片的节点key数量触发了Redis内部的内存rehash机制,导致内存分配了1G。
 
 
 
Rehash介绍
在Redis中,键值对(Key-Value Pair)存储方式是由字典(Dict)保存的,而字典底层是通过哈希表来实现的。通过哈希表中的节点保存字典中的键值对。当HashMap中由于Hash冲突(负载因子)超过某个阈值时,出于链表性能的考虑,会进行Resize的操作。Redis也一样。Redis使用了一种叫做渐进式哈希(rehashing)的机制来提高字典的缩放效率,避免 rehash 对服务器性能造成影响,渐进式 rehash 的好处在于它采取分而治之的方式, 将 rehash 键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上, 从而避免了集中式 rehash 而带来的庞大计算量。
Rehash的具体机制可参考美团文章:https://tech.meituan.com/2018/07/27/redis-rehash-practice-optimization.html
rehash 结构定义

(1)Redis 哈希表结构体:

(2)哈希桶
 

(3)定义字典

总结起来就是:
- 一个RedisDB对应一个Dict;
- 一个Dict对应2个Dictht,正常情况只用到ht[0];ht[1] 在Rehash时使用。
 
Rehash 逻辑
| /* 根据相关触发条件扩展字典 */static int _dictExpandIfNeeded(dict *d)
 {
 if (dictIsRehashing(d)) return DICT_OK; // 如果正在进行Rehash,则直接返回
 if (d->ht[0].size == 0) return dictExpand(d, DICT_HT_INITIAL_SIZE); // 如果ht[0]字典为空,则创建并初始化ht[0]
 /* (ht[0].used/ht[0].size)>=1前提下,
 当满足dict_can_resize=1或ht[0].used/t[0].size>5时,便对字典进行扩展 */
 if (d->ht[0].used >= d->ht[0].size &&
 (dict_can_resize ||
 d->ht[0].used/d->ht[0].size > dict_force_resize_ratio))
 {
 return dictExpand(d, d->ht[0].used*2); // 扩展字典为原来的2倍
 }
 return DICT_OK;
 }
 ...
 /* 计算存储Key的bucket的位置 */static int _dictKeyIndex(dict *d, const void *key)
 {
 unsigned int h, idx, table;
 dictEntry *he;
 
 /* 检查是否需要扩展哈希表,不足则扩展 */
 if (_dictExpandIfNeeded(d) == DICT_ERR)
 return -1;
 /* 计算Key的哈希值 */
 h = dictHashKey(d, key);
 for (table = 0; table <= 1; table++) {
 idx = h & d->ht[table].sizemask; //计算Key的bucket位置
 /* 检查节点上是否存在新增的Key */
 he = d->ht[table].table[idx];
 /* 在节点链表检查 */
 while(he) {
 if (key==he->key || dictCompareKeys(d, key, he->key))
 return -1;
 he = he->next;
 }
 if (!dictIsRehashing(d)) break; // 扫完ht[0]后,如果哈希表不在rehashing,则无需再扫ht[1]
 }
 return idx;
 }
 ... /* 将Key插入哈希表 */dictEntry *dictAddRaw(dict *d, void *key)
 {
 int index;
 dictEntry *entry;
 dictht *ht;
 
 if (dictIsRehashing(d)) _dictRehashStep(d); // 如果哈希表在rehashing,则执行单步rehash
 
 /* 调用_dictKeyIndex() 检查键是否存在,如果存在则返回NULL */
 if ((index = _dictKeyIndex(d, key)) == -1)
 return NULL;
 ht = dictIsRehashing(d) ? &d->ht[1] : &d->ht[0]; entry = zmalloc(sizeof(*entry)); // 为新增的节点分配内存
 entry->next = ht->table[index]; // 将节点插入链表表头
 ht->table[index] = entry; // 更新节点和桶信息
 ht->used++; // 更新ht
 
 /* 设置新节点的键 */
 dictSetKey(d, entry, key);
 return entry;
 }
 .../* 添加新键值对 */
 int dictAdd(dict *d, void *key, void *val)
 {
 dictEntry *entry = dictAddRaw(d,key); // 添加新键
 
 if (!entry) return DICT_ERR; // 如果键存在,则返回失败
 dictSetVal(d, entry, val); // 键不存在,则设置节点值
 return DICT_OK;
 }
   int dictExpand(dict *d, unsigned long size) {
 dictht n; // 新哈希表
 unsigned long realsize = _dictNextPower(size); // 计算扩展或缩放新哈希表的大小(调用下面函数_dictNextPower())
 
 /* 如果正在rehash或者新哈希表的大小小于现已使用,则返回error */
 if (dictIsRehashing(d) || d->ht[0].used > size)
 return DICT_ERR;
 
 /* 如果计算出哈希表size与现哈希表大小一样,也返回error */
 if (realsize == d->ht[0].size) return DICT_ERR;
 
 /* 初始化新哈希表 */
 n.size = realsize;
 n.sizemask = realsize-1;
 n.table = zcalloc(realsize*sizeof(dictEntry*)); // 为table指向dictEntry 分配内存
 n.used = 0;
 
 /* 如果ht[0] 为空,则初始化ht[0]为当前键值对的哈希表 */
 if (d->ht[0].table == NULL) {
 d->ht[0] = n;
 return DICT_OK;
 }
 
 /* 如果ht[0]不为空,则初始化ht[1]为当前键值对的哈希表,并开启渐进式rehash模式 */
 d->ht[1] = n;
 d->rehashidx = 0;
 return DICT_OK;
 }
 ...
 static unsigned long _dictNextPower(unsigned long size) {
 unsigned long i = DICT_HT_INITIAL_SIZE; // 哈希表的初始值:4
 if (size >= LONG_MAX) return LONG_MAX; /* 计算新哈希表的大小:第一个大于等于size的2的N 次方的数值 */
 while(1) {
 if (i >= size)
 return i;
 i *= 2;
 }
 }
 | 
|---|
 

 
可以确认当Redis Hash冲突到达某个条件时就会触发dictExpand()函数来扩展HashTable。
DICT_HT_INITIAL_SIZE初始化值为4,通过上述表达式,取当4*2^n >= ht[0].used*2的值作为字典扩展的size大小。即为:ht[1].size 的值等于第一个大于等于ht[0].used*2的2^n的数值。
Redis通过dictCreate()创建词典,在初始化中,table指针为Null,所以两个哈希表ht[0].table和ht[1].table都未真正分配内存空间。只有在dictExpand()字典扩展时才给table分配指向dictEntry的内存。
由上可知,当Redis触发Resize后,就会动态分配一块内存,最终由ht[1].table指向,动态分配的内存大小为:realsize*sizeof(dictEntry*),table指向dictEntry*的一个指针,大小为8bytes(64位OS),即ht[1].table需分配的内存大小为:8*2*2^n (n大于等于2)。
| ht[0].size | 触发Resize时,ht[1]需分配的内存 | 
|---|
| 4 | 64bytes | 
| 8 | 128bytes | 
| 16 | 256bytes | 
| … | … | 
| 65536 | 1024K | 
| … | … | 
| 8388608 | 128M | 
| 16777216 | 256M | 
| 33554432 | 512M | 
| 67108864 | 1024M | 
| … | … | 
 
现在回过头来看内存上涨1G的时候,节点的key的数量刚好触发了67108864这个值,触发了rehash机制。系统需要分配1G内存的ht[1]表。


 
根据我们推到的rehash机制,来回顾前面4个内存未变化的节点发现,1月4号早上8点40左右,上述4个节点到达了67108864线,触发了rehash机制,系统分配给ht[1]表1G内存
 

  
redis-benchmark测试
在测试环境生成67108865个key,当key的数量从67108864加1变成67108865时,使用内存立刻增加1G
redis-cli -r 1000 -i 1 -p 6035 info | egrep "used_memory_human|used_memory:|db0:keys|mem_fragmentation_ratio"


 
 
总结
当Redis 节点中的Key总量到达临界点后,Redis就会触发Dict的扩展,进行Rehash,申请扩展后相应的内存空间大小。
风险点:keys过多触发rehash需要分配的内存较多,分片均匀的集群尤为突出,且容易达到内存上限造成大量驱逐过期key,导致Redis服务无法响应请求。
解决方法:根据rehash的触发机制,做好当前可用内存和rehash需要申请内存的监控,在触发rehash前进行干预,避免rehash申请内存后造成内存超用。
 
Redis rehash机制分析介绍
原文:https://www.cnblogs.com/chou1214/p/14083744.html