Redis
是一个键值对数据库,其键是通过哈希进行存储的。整个 Redis
可以认为是一个外层哈希,之所以称为外层哈希,是因为 Redis
内部也提供了一种哈希类型,这个可以称之为内部哈希。当我们采用哈希对象进行数据存储时,对整个 Redis
而言,就经过了两层哈希存储。
哈希对象
哈希对象本身也是一个 key-value
存储结构,底层的存储结构也可以分为两种:ziplist
(压缩列表) 和 hashtable
(哈希表)。这两种存储结构也是通过编码来进行区分:
hashtable
Redis
中的 key-value
是通过 dictEntry
对象进行包装的,而哈希表就是将 dictEntry
对象又进行了再一次的包装得到的,这就是哈希表对象 dictht
:
typedef struct dictht { dictEntry **table;//哈希表数组 unsigned long size;//哈希表大小 unsigned long sizemask;//掩码大小,用于计算索引值,总是等于size-1 unsigned long used;//哈希表中的已有节点数 } dictht;
注意:上面结构定义中的 table
是一个数组,其每个元素都是一个 dictEntry
对象。
字典
字典,又称为符号表(symbol table),关联数组(associative array)或者映射(map),字典的内部嵌套了哈希表 dictht
对象,下面就是一个字典 ht
的定义:
typedef struct dict { dictType *type;//字典类型的一些特定函数 void *privdata;//私有数据,type中的特定函数可能需要用到 dictht ht[2];//哈希表(注意这里有2个哈希表) long rehashidx; //rehash索引,不在rehash时,值为-1 unsigned long iterators; //正在使用的迭代器数量 } dict;
其中 dictType
内部定义了一些常用函数,其数据结构定义如下:
typedef struct dictType { uint64_t (*hashFunction)(const void *key);//计算哈希值函数 void *(*keyDup)(void *privdata, const void *key);//复制键函数 void *(*valDup)(void *privdata, const void *obj);//复制值函数 int (*keyCompare)(void *privdata, const void *key1, const void *key2);//对比键函数 void (*keyDestructor)(void *privdata, void *key);//销毁键函数 void (*valDestructor)(void *privdata, void *obj);//销毁值函数 } dictType;
当我们创建一个哈希对象时,可以得到如下简图(部分属性被省略):
rehash 操作
dict
中定义了一个数组 ht[2]
,ht[2]
中定义了两个哈希表:ht[0]
和 ht[1]
。而 Redis
在默认情况下只会使用 ht[0]
,并不会使用 ht[1]
,也不会为 ht[1]
初始化分配空间。
当设置一个哈希对象时,具体会落到哈希数组(上图中的 dictEntry[3]
)中的哪个下标,是通过计算哈希值来确定的。如果发生哈希碰撞(计算得到的哈希值一致),那么同一个下标就会有多个 dictEntry
,从而形成一个链表(上图中最右边指向 NULL
的位置),不过需要注意的是最后插入元素的总是落在链表的最前面(即发生哈希冲突时,总是将节点往链表的头部放)。
当读取数据的时候遇到一个节点有多个元素,就需要遍历链表,故链表越长,性能越差。为了保证哈希表的性能,需要在满足以下两个条件中的一个时,对哈希表进行 rehash
(重新散列)操作:
负载因子大于等于 1
且 dict_can_resize
为 1
时。负载因子大于等于安全阈值(dict_force_resize_ratio=5
)时。
PS:负载因子 = 哈希表已使用节点数 / 哈希表大小(即:h[0].used/h[0].size
)。
rehash 步骤
扩展哈希和收缩哈希都是通过执行 rehash
来完成,这其中就涉及到了空间的分配和释放,主要经过以下五步:
为字典 dict
的 ht[1]
哈希表分配空间,其大小取决于当前哈希表已保存节点数(即:ht[0].used
):
如果是扩展操作则 ht[1]
的大小为 2 的
n次方中第一个大于等于
ht[0].used * 2属性的值(比如
used=3,此时
ht[0].used * 2=6,故
2的
3次方为
8就是第一个大于
used * 2 的值(2 的 2 次方 < 6 且 2 的 3 次方 > 6))。
如果是收缩操作则 ht[1]
大小为 2 的 n 次方中第一个大于等于 ht[0].used
的值。
将字典中的属性 rehashix
的值设置为 0
,表示正在执行 rehash
操作。
将 ht[0]
中所有的键值对依次重新计算哈希值,并放到 ht[1]
数组对应位置,每完成一个键值对的 rehash
之后 rehashix
的值需要自增 1
。
当 ht[0]
中所有的键值对都迁移到 ht[1]
之后,释放 ht[0]
,并将 ht[1]
修改为 ht[0]
,然后再创建一个新的 ht[1]
数组,为下一次 rehash
做准备。
将字典中的属性 rehashix
设置为 -1
,表示此次 rehash
操作结束,等待下一次 rehash
。
渐进式 rehash
Redis
中的这种重新哈希的操作因为不是一次性全部 rehash
,而是分多次来慢慢的将 ht[0]
中的键值对 rehash
到 ht[1]
,故而这种操作也称之为渐进式 rehash
。渐进式 rehash
可以避免集中式 rehash
带来的庞大计算量,是一种分而治之的思想。
在渐进式 rehash
过程中,因为还可能会有新的键值对存进来,此时** Redis
的做法是新添加的键值对统一放入 ht[1]
中,这样就确保了 ht[0]
键值对的数量只会减少**。
当正在执行 rehash
操作时,如果服务器收到来自客户端的命令请求操作,则会先查询 ht[0]
,查找不到结果再到ht[1]
中查询。
ziplist
关于 ziplist
的一些特性,之前的文章中有单独进行过分析,想要详细了解的,可以点击这里。但是需要注意的是哈希对象中的 ziplist
和列表对象中 ziplist
的有一点不同就是哈希对象是一个 key-value
形式,所以其 ziplist
中也表现为 key-value
,key
和 value
紧挨在一起:
ziplist 和 hashtable 的编码转换
当一个哈希对象可以满足以下两个条件中的任意一个,哈希对象会选择使用 ziplist
编码来进行存储:
- 哈希对象中的所有键值对总长度(包括键和值)小于等于
64
字节(这个阈值可以通过参数hash-max-ziplist-value
来进行控制)。 - 哈希对象中的键值对数量小于等于
512
个(这个阈值可以通过参数hash-max-ziplist-entries
来进行控制)。
一旦不满足这两个条件中的任意一个,哈希对象就会选择使用 hashtable
编码进行存储。
哈希对象常用命令
- hset key field value:设置单个
field
(哈希对象的key
值)。 - hmset key field1 value1 field2 value2 :设置多个
field
(哈希对象的key
值)。 - hsetnx key field value:将哈希表
key
中域field
的值设置为value
,如果field
已存在,则不执行任何操作。 - hget key field:获取哈希表
key
中的域field
对应的value
。 - hmget key field1 field2:获取哈希表
key
中的多个域field
对应的value
。 - hdel key field1 field2:删除哈希表
key
中的一个或者多个field
。 - hlen key:返回哈希表key中域的数量。
- hincrby key field increment:为哈希表
key
中的域field
的值加上增量increment
,increment
可以为负数,如果field
不是数字则会报错。 - hincrbyfloat key field increment:为哈希表
key
中的域field
的值加上增量increment
,increment
可以为负数,如果field
不是float
类型则会报错。 - hkeys key:获取哈希表
key
中的所有域。 - hvals key:获取哈希表中所有域的值。
了解了操作哈希对象的常用命令,我们就可以来验证下前面提到的哈希对象的类型和编码了,在测试之前为了防止其他 key
值的干扰,我们先执行 flushall
命令清空 Redis
数据库。
然后依次执行如下命令:
hset address country china type address object encoding address
得到如下效果:
可以看到当我们的哈希对象中只有一个键值对的时候,底层编码是 ziplist
。
现在我们将 hash-max-ziplist-entries
参数改成 2
,然后重启 Redis
,最后再输入如下命令进行测试:
hmset key field1 value1 field2 value2 field3 value3 object encoding key
输出之后得到如下结果:
可以看到,编码已经变成了 hashtable
。
总结
本文主要介绍了 Redis
中 5
种常用数据类型中的哈希类型底层的存储结构 hashtable
的使用,以及当 hash
分布不均匀时候 Redis
是如何进行重新哈希的问题,最后了解了哈希对象的一些常用命令,并通过一些例子验证了本文的结论。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]