Redis的Hash数据结构中100万对field和value,field是自增时如何优化?优化Hash结构。

ZipList使用是有条件的,当entry数据量太大时就会启用哈希结构,占用内存空间

1.设置bigkey的上限

在redis.config中设置

2.拆分为string类型

String底层结果没有太多优化,占用内存多

想要批量获取数据麻烦

3.拆分为小的hash

将id/100作为key,将id%100作为field,这样每100个元素为一个hash

相关推荐

  1. RedisHash数据结构底层实现

    2024-04-03 09:20:01       19 阅读
  2. redishash数据结构底层简记

    2024-04-03 09:20:01       28 阅读
  3. Redishash使用

    2024-04-03 09:20:01       9 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-04-03 09:20:01       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-04-03 09:20:01       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-04-03 09:20:01       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-04-03 09:20:01       18 阅读

热门阅读

  1. 【蓝桥杯每日一题】4.2 全球变暖

    2024-04-03 09:20:01       12 阅读
  2. postcss安装和使用

    2024-04-03 09:20:01       14 阅读
  3. FastAPI+React全栈开发20 使用useEffect与api通信

    2024-04-03 09:20:01       17 阅读
  4. 负载均衡:实现高效稳定的网络服务

    2024-04-03 09:20:01       14 阅读
  5. Vue3: 如何在 ref() 与 reactive() 之间做正确选择?

    2024-04-03 09:20:01       13 阅读
  6. ActiViz中的图像处理vtkImageViewer2

    2024-04-03 09:20:01       18 阅读
  7. 集创赛分析(图像处理部分)

    2024-04-03 09:20:01       14 阅读
  8. ActiViz中的图像处理vtkImageActor

    2024-04-03 09:20:01       26 阅读