巧妙设计多级缓存,为数据库减负

王梓晨 2018-08-17 09:44:14
作者介绍

王梓晨,物流研发部架构师,GIS技术部负责人,2012年加入京东,多年一线团队大促备战经验,负责物流研发一些部门的架构工作,专注于低延迟系统设计与海量数据处理。目前负责物流GIS部门,先后主导了国标转京标、物流可视化等项目。

 

自古兵家多谋,《谋攻篇》,“故上兵伐谋,其次伐交,其次伐兵,其下攻城。攻城之法,为不得已”,可见攻城之计有很多种,而爬墙攻城是最不明智的做法,军队疲惫受损、钱粮损耗、百姓遭殃。故而我们有很多迂回之策,谋略、外交、军事手段等等,每一种都比攻城的代价小,更轻量级,缓存设计亦是如此。

 

一、为什么要设计缓存?

 

其实高并发应对的解决方案不是互联网独创的,计算机先祖们很早就对类似的场景做了方案。比如《计算机组成原理》这样提到的CPU缓存概念:它是一种高速缓存,容量比内存小但是速度却快很多,这种缓存的出现主要是为了解决CPU运算速度远大于内存读写速度,甚至达到千万倍的问题。

 

传统的CPU通过fsb直连内存的方式显然就会因为内存访问的等待,导致CPU吞吐量下降,内存成为性能瓶颈。同时又由于内存访问的热点数据集中性,所以需要在CPU与内存之间做一层临时的存储器作为高速缓存。

 

随着系统复杂性的提升,这种高速缓存和内存之间的速度进一步拉开,由于技术难度和成本等原因,所以有了更大的二级、三级缓存。根据读取顺序,绝大多数的请求首先落在一级缓存上,其次二级...

 

 

故而应用于SOA甚至微服务的场景,内存相当于存储业务数据的持久化数据库,其吞吐量肯定是远远小于缓存的,而对于java程序来讲,本地的JVM缓存优于集中式的Redis缓存。

 

关系型数据库操作方便、易于维护且访问数据灵活,但是随着数据量的增加,其检索、更新的效率会越来越低。所以在高并发低延迟要求复杂的场景,要给数据库减负,减少其压力。

 

二、给数据库减负

 

1
 
缓存分布式,做多级缓存

 

 

 

读请求时写缓存

 

写缓存时一级一级写,先写本地缓存,再写集中式缓存。具体些缓存的方法可以有很多种,但是需要注意几项原则:

 

  • 不要复制粘贴,避免重复代码;

  • 切忌和业务耦合太紧,不利于后期维护;

  • 开发初期刚刚上线阶段,为了排查问题,常常会给缓存设置开关,但是开关设置多了则会同时升高系统的复杂度,需要结合一套统一配置管理系统,例如京东物流就有一套叫做UCC。

 

综上所述,高耦合带来的痛,弥补的代价是很大的,所以可以借鉴Spring cache来实现,实现也比较简单,使用时一个注解就搞定了。

 

 

写缓存失败了怎么办?应该先写缓存还是数据库呢?

 

既然是缓存的设计,那么策略一定是保证最终一致性,那么我们只需要采用异步消息来补偿就好了。

 

大部分缓存应用的场景是读写比差异很大的,读远大于写,在这种场景下,只需要以数据库为主,先写数据库,再写缓存就好了。

 

最后补充一点,数据库出现异常时,不要一股脑的catch RuntimeException,而是把具体关心的异常往外抛,然后进行有针对性的异常处理。

 

关于其他性能方面

 

缓存设计都是占用越少越好,内存资源昂贵以及太大不好维护都驱使我们这样设计。所以要尽可能减少缓存不必要的数据,有的同学图省事把整个对象序列化存储。另外,序列化与反序列化也是消耗性能的。

 

2
 
vs各种缓存同步方案

 

缓存同步方案有很多种,在考虑一致性、数据库访问压力、实时性等方面做权衡。总的来说有以下几种方式:

 

懒加载式

 

如上段提到的方式,读时顺便加载,为了更新缓存数据,需要过期缓存。

 

 

优点:简单直接。

缺点:

  • 会造成一次缓存不命中;

  • 这样当用户并发很大时,恰好缓存中无数据,数据库承担瞬时流量过大会造成风险。

 

懒加载式太简单了,没有自动加载,异步刷新等机制,为了弥补其缺陷,请参见接下来的两种方法:

 

补充式

 

可以在缓存时,把过期时间等信息写到一个异步队列里,后台起个线程池定期扫描这个队列,在快过期时主动reload缓存,使得数据会一直保持在缓存中,如果缓存没有也没有必要去数据库查询了。常见的处理方式有使用binlog加工成消息供增量处理。

 

 

优点:刷新缓存变为异步的任务,对数据库的压力瞬间由于任务队列的介入而降低了,削平并发的波峰。

缺点:消息一旦积压会造成同步延迟,引入复杂度。

 

定时加载式

 

这就需要有个异步线程池定期把数据库的数据刷到集中式缓存,如Redis里。

 

优点:保证所有数据最小时间差同步到缓存中,延迟很低。

缺点:如补充式,需要一个任务调度框架,复杂度提升,且要保证任务的顺序。如果递进一步还想加载到本地缓存,就得本地应用自己起线程抓取,方案维护成本高。可以考虑使用mq或者其他异步任务调度框架。

ps:为了防止队列过大调度出现问题,处理完的数据要尽快结转,且要对积压数据以及写入情况做监控。

 

3
 
防止缓存穿透

 

缓存穿透是指查询的key压根不存在,从而缓存查询不到而查询了数据库。若是这样的key恰好并发请求很大,那么就会对数据库造成不必要的压力。怎么解决呢?

 

  • 把所有存在的key都存到另外一个存储的Set集合里,查询时可以先查询key是否存在;

  • 干脆简单一些,给查询不到的key也加一个标识空值的Value,这样就不会去查询数据库了,比如场景为查询省市区街道对应的移动营业厅,若是某街道确实没有移动营业厅,key规则不变,value可以设置为"0"等无意义的字符。当然此种方案要保证缓存集群的高可用;

  • 这些Key可能不是永远不存在,所以需要根据业务场景来设置过期时间。

 

4
 
热点缓存与缓存淘汰策略

 

有一些场景,需要只保持一部分的热点缓存,不需要全量缓存,比如热卖的商品信息,购买某类商品的热门商圈信息等等。

 

综合来讲,缓存过期的策略有以下三种:

 

FIFO(First In,First Out)

 

即先进先出,淘汰最早进来的缓存数据,一个标准的队列。

 

 

以队列为基本数据结构,从队首进入新数据,从队尾淘汰。

 

LRU(Least RecentlyUsed)

 

即最近最少使用,淘汰最近不使用的缓存数据。如果数据最近被访问过,则不淘汰。

 

 

  • 和FIFO不同的是,需要对链表做基本模型,读写的时间复杂度是O(1),写入新数据进入头部,链表满了数据从尾部淘汰;

  • 最近时间被访问的数据移动到头部,实现算法有很多,如hashmap+双向链表等等;

  • 问题在于若是偶发性某些key被最近频繁访问,而非常态,则数据受到污染。

 

LFU(Least Frequently used)

 

即最近使用次数最少的数据被淘汰,注意和LRU的区别在于LRU的淘汰规则是基于访问时间。

 

 

  • LFU中的每个数据块都有一个引用计数,数据块按照引用计数排序,若是恰好具有相同引用计数的数据块则按照时间排序;

  • 因为新加入的数据访问次数为1,所以插入到队列尾部;

  • 队列中的数据被新访问后,引用计数增加,队列重新排序;

  • 当需要淘汰数据时,将已经排序的列表最后的数据块删除;

  • 有很明显问题是若短时间内被频繁访问多次,比如访问异常或者循环没有控制住,而后很长时间未使用,则此数据会因为频率高而被错误的保留下来,没有被淘汰。尤其对于新来的数据,由于其起始的次数是1,所以即便被正常使用也会因为比不过老的数据而被淘汰。所以维基百科说纯粹的LFU算法不经常单独使用而是组合在其他策略中使用。

 

5
 
缓存使用的一些常见问题

 

Q1:那么应该选择用本地缓存(local cache)还是集中式缓存(Cache cluster)呢?

A1:首先看数据量,看缓存更新的成本,如果整体缓存数据量不是很大,而且变化的不频繁,那么建议本地缓存。

 

Q2:怎么批量更新一批缓存数据?

A2:依次从数据库读取,然后批量写入缓存,批量更新,设置版本过期key或者主动删除。

 

Q3:如果不知道有哪些key怎么定期删除?

A3:拿Redis来说keys * 太损耗性能,不推荐。可以指定一个集合,把所有的key都存到这个集合里,然后对整个集合进行删除,这样便能完全清理了。

 

Q4:一个key包含的集合很大,Redis无法做到内存空间上的均匀Shard?

A4:1、可以简单的设置key过期,这样就要允许有缓存不命中的情况;2、给key设置版本,比如为两天后的当前时间,然后读取缓存时用时间判断一下是否需要重新加载缓存,作为版本过期的策略。

 

 

作者:王梓晨

来源:京东技术订阅号(ID:jingdongjishu)

dbaplus社群欢迎广大技术人员投稿,投稿邮箱:editor@dbaplus.cn

最新评论
访客 2023年08月20日

230721

访客 2023年08月16日

1、导入Mongo Monitor监控工具表结构(mongo_monitor…

访客 2023年08月04日

上面提到: 在问题描述的架构图中我们可以看到,Click…

访客 2023年07月19日

PMM不香吗?

访客 2023年06月20日

如今看都很棒

活动预告