双宋离婚,冰冰分手,最慌的是程序员!

新闻
6 月 27 日,微博再次宕机,因为一连出现 3 个热点新闻:双宋离婚、宝强母亲去世、李晨范冰冰分手。广大网友可能更多关注的是新闻本身,纷纷留言评论发表自己看法。

6 月 27 日,微博再次宕机,因为一连出现 3 个热点新闻:双宋离婚、宝强母亲去世、李晨范冰冰分手。广大网友可能更多关注的是新闻本身,纷纷留言评论发表自己看法。

[[269233]]

而站在一个程序员的角度,出于职业习惯,首先想到的却是自己的后台架构,应该如何抗住一天 3 个热点涌入的巨大流量!

为什么要用缓存集群

其实使用缓存集群的时候,最怕的就是热 Key、大 Value 这两种情况,那啥叫热 Key 大 Value 呢?

简单来说,热 Key,就是你的缓存集群中的某个 Key 瞬间被数万甚至十万的并发请求打爆。

大 Value,就是你的某个 Key 对应的 Value 可能有 GB 级的大小,导致查询 Value 的时候出现网络相关的故障问题。

我们先来看看下面一幅图,假设你手头有个系统,他本身是集群部署的,然后后面有一套缓存集群,这个集群不管你用 Redis Cluster,还是 Memcached,或者是公司自研缓存集群,都可以。

那么,这套系统用缓存集群干什么呢?很简单,在缓存里放一些平时不怎么变动的数据,然后用户在查询大量的平时不怎么变动的数据的时候,不就可以直接从缓存里走了吗?

缓存集群的并发能力是很强的,而且读缓存的性能是很高的。举个例子,假设你每秒有 2 万请求,但是其中 90% 都是读请求,那么每秒 1.8 万请求都是在读一些不太变化的数据,而不是写数据。

那此时你把这些数据都放在数据库里,然后每秒发送 2 万请求到数据库上读写数据,你觉得合适吗?

当然不合适了,如果你要用数据库承载每秒 2 万请求的话,那么不好意思,你很可能就得搞分库分表+读写分离。

比如你得分 3 个主库,承载每秒 2000 的写入请求,然后每个主库挂 3 个从库,一共 9 个从库承载每秒 1.8 万的读请求。

这样的话,你可能就需要一共是 12 台高配置的数据库服务器,这是很耗费钱的,成本非常高,很不合适。

大家看看下面的图,来体会下这种情况:

因此,我们完全可以把平时不太变化的数据放在缓存集群里,缓存集群可以采用 2 主 2 从,主节点用来写入缓存,从节点用来读缓存。

以缓存集群的性能,2 个从节点完全可以用来承载每秒 1.8 万的大量读请求,然后 3 个数据库主库承载每秒 2000 的写请求和少量其他读请求就 OK 了。

这样一来,你耗费的机器瞬间变成了 4 台缓存机器+3 台数据库机器=7 台机器,是不是比之前的 12 台机器减少了很大的资源开销?

没错,缓存在系统架构里是非常重要的组成部分。很多时候,对于那些很少变化但是大量高并发读的数据,通过缓存集群来抗高并发读,是非常合适的。

我们看看下面的图,体会一下这个过程:

需要说明的是,这里所有的机器数量、并发请求量都是一个示例,大家主要是体会一下这个意思就好。

其目的主要是给一些不太熟悉缓存相关技术的同学一点背景性的阐述,让这些同学能够理解在系统里用缓存集群承载读请求是什么意思。

20 万用户同时访问一个热点缓存

好了,背景已经给大家解释清楚,现在就可以给大家说说今天重点要讨论的问题:热点缓存。

我们来做一个假设,现在有 10 个缓存节点来抗大量的读请求。正常情况下,读请求应该是均匀的落在 10 个缓存节点上的,对吧!

这 10 个缓存节点,每秒承载 1 万请求是差不多的。

然后我们再做一个假设,你一个节点承载 2 万请求是极限,所以一般你就限制一个节点正常承载 1 万请求就 OK 了,稍微留一点 Buffer 出来。

好,所谓的热点缓存问题是什么意思呢?很简单,就是突然因为莫名的原因,出现大量的用户访问同一条缓存数据。

比如像昨天那样,双宋离婚、宝强母亲去世、李晨范冰冰分手,这是不是会引发短时间内每秒有数十万用户去查看这几条热点新闻?

假设上述 3 条新闻就是 3 个缓存,对应 3 个缓存 Key,这些 Key 都存在于一台缓存机器上。

然后某条新闻一公布,比如范冰冰一发布微博,接着瞬间就可能几十万请求奔向那一台机器。

此时会如何?我们看看下面的图,来体会一下这种绝望的感受:

很明显了,我们刚才假设的是一个缓存 Slave 节点最多每秒就是 2 万的请求,当然实际缓存单机承载 5 万~10 万读请求也是可能的,这里就是一个假设。

结果每秒突然奔过来 20 万请求到这台机器上,会怎么样?很简单,上面图里那台被 20 万请求指向的缓存机器会过度操劳而宕机的。

那么如果缓存集群开始出现机器的宕机,此时会如何?此时读请求发现读不到数据,会从数据库里提取原始数据,然后放入剩余的其他缓存机器里去。

但是接踵而来的每秒 20 万请求,会再次压垮其他的缓存机器。以此类推,最终导致缓存集群全盘崩溃,引发系统整体宕机。

咱们看看下面的图,再感受一下这个恐怖的现场:

基于流式计算技术的缓存热点自动发现

其实这里关键的一点,就是对于这种热点缓存,你的系统需要能够在热点缓存突然发生的时候,直接发现他,然后瞬间立马实现毫秒级的自动负载均衡。

那么我们就先来说说,你如何自动发现热点缓存问题?首先你要知道,一般出现缓存热点的时候,你的每秒并发肯定是很高的,可能每秒都几十万甚至上百万的请求量过来,这都是有可能的。

所以,此时完全可以基于大数据领域的流式计算技术来进行实时数据访问次数的统计,比如 Storm、Spark Streaming、Flink。

一旦在实时数据访问次数统计的过程中,比如发现 1 秒之内,某条数据突然访问次数超过了 1000,就直接立马把这条数据判定为是热点数据,可以将这个发现出来的热点数据写入比如 Zookeeper 中。

当然,你的系统如何判定热点数据,可以根据自己的业务还有经验值来就可以了。

大家看看下面这张图,看看整个流程是如何进行的:

这里肯定有人会问,那你的流式计算系统在进行数据访问次数统计的时候,会不会也存在说单台机器被请求每秒几十万次的问题呢?

答案是:否。因为流式计算技术,尤其是 Storm 这种系统,他可以做到同一条数据的请求过来,先分散在很多机器里进行本地计算,***再汇总局部计算结果到一台机器进行全局汇总。

所以几十万请求可以先分散在比如 100 台机器上,每台机器统计了这条数据的几千次请求。

然后 100 条局部计算好的结果汇总到一台机器做全局计算即可,所以基于流式计算技术来进行统计是不会有热点问题的。

热点缓存自动加载为 JVM 本地缓存

我们自己的系统可以对 Zookeeper 指定的热点缓存对应的 Znode 进行监听,如果有变化他立马就可以感知到了。

此时系统层就可以立马把相关的缓存数据从数据库加载出来,然后直接放在自己系统内部的本地缓存里即可。

这个本地缓存,你用 Ehcache、Hashmap,其实都可以,一切看自己的业务需求。

我们这里主要说的就是将缓存集群里的集中式缓存,直接变成每个系统自己本地实现缓存即可,每个系统本地是无法缓存过多数据的。

因为一般这种普通系统单实例部署机器可能就一个 4 核 8G 的机器,留给本地缓存的空间是很少的,所以用来放这种热点数据的本地缓存是最合适的,刚刚好。

假设你的系统层集群部署了 100 台机器,那么好了,此时你 100 台机器瞬间在本地都会有一份热点缓存的副本。

然后接下来对热点缓存的读操作,直接系统本地缓存读出来就给返回了,不用再走缓存集群了。

这样的话,也不可能允许每秒 20 万的读请求到达缓存机器的一台机器上读一个热点缓存了,而是变成 100 台机器每台机器承载数千请求,那么那数千请求就直接从机器本地缓存返回数据了,这是没有问题的。

我们再来画一幅图,一起来看看这个过程:

限流熔断保护

除此之外,在每个系统内部,其实还应该专门加一个对热点数据访问的限流熔断保护措施。

每个系统实例内部,都可以加一个熔断保护机制,假设缓存集群最多每秒承载 4 万读请求,那么你一共有 100 个系统实例。

你自己就该限制好,每个系统实例每秒最多请求缓存集群读操作不超过 400 次,一超过就可以熔断掉,不让请求缓存集群,直接返回一个空白信息,然后用户稍后会自行再次重新刷新页面之类的。

通过系统层自己直接加限流熔断保护措施,可以很好的保护后面的缓存集群、数据库集群之类的不要被打死。

再来一幅图,一起来看看:

总结

具体要不要在系统里实现这种复杂的缓存热点优化架构呢?这个还要看你们自己的系统有没有这种场景了。

如果你的系统有热点缓存问题,那么就要实现类似本文的复杂热点缓存支撑架构。

但是如果没有的话,那么也别过度设计,其实你的系统可能根本不需要这么复杂的架构。

如果是后者,那么大伙儿就权当看看本文,了解一下对应的架构思想好了!

中华石杉:十余年 BAT 架构经验,一线互联网公司技术总监。带领上百人团队开发过多个亿级流量高并发系统。现将多年工作中积累下的研究手稿、经验总结整理成文,倾囊相授。微信公众号:石杉的架构笔记(ID:shishan100)。

 

责任编辑:武晓燕 来源: 石杉的架构笔记
相关推荐

2017-12-04 23:25:24

2016-03-25 11:57:23

Java程序员C++

2012-07-18 10:35:22

GitHub程序员代码

2018-07-16 09:12:00

程序员奇葩开发

2013-11-01 17:24:39

程序员命名

2017-09-11 18:37:00

2015-04-10 19:37:34

程序员

2015-12-07 10:09:40

程序员噩梦

2011-09-15 09:12:00

程序员苹果

2015-12-04 08:49:00

程序员梦魇

2014-11-26 09:45:48

程序员

2013-06-17 11:01:49

程序员离职

2019-04-10 16:17:02

程序员结构源代码

2021-02-20 13:55:35

程序员计算机技术

2009-11-23 15:22:16

2018-08-10 14:35:42

程序员技术代码

2014-12-22 10:07:10

程序员

2012-11-14 14:18:57

程序员

2017-11-08 12:38:02

2019-05-13 15:45:29

程序员面试招聘
点赞
收藏

51CTO技术栈公众号