Java高可用架构设计-【春晚大流量高并发】

场景一 春晚大流量高并发
前端接入CDN
在全国各地都搞一批服务器,然后呢,让CDN提前请求我们的后端系统,把一些图片、视频一类的静态资源都加载到全国各地的CDN服务器上去。接着呢,全国各地的用户打卡手机APP,想要加载图片和视频的时候,就近找一个距离自己最近的CDN服务器加载图片和视频就可以了,这样就可以让超高流量分散到全国各地的很多CDN服务器上去了,大家看下图
基于Nginx+tomcat+redis的多级缓存读方案
就是说全国各地用户还是得发送大量的请求到我们后台系统来加载一些数据,那么对于这种高并发的数据读取该怎么来抗呢?简单,上一套多级缓存架构,我们可以在tomcat前面加一层nginx反向代理服务器,在nginx里可以基于lua脚本自己写代码,然后在nginx的内存里可以基于LRU策略缓存一些热门数据。然后如果是nginx里没有缓存到的数据,可以在我们的业务系统tomcat里用本地cache,比如说guava就可以提供本地缓存cache,同样基于LRU策略缓存一些数据,最后就是如果tomcat本地缓存里也没有,就可以去redis分布式缓存集群里加载缓存数据。基本上通过ngxin+tomcat+redis三级缓存架构,就可以把高并发读取的流量全部抗下来了,如下图
架构图
系统限流防雪崩体系架构方案
最后呢,其实还应该再加一个机制,那就是限流。因为在上述这套架构上线以前,应该对这套架构通过三级缓存可以抗多大读流量压力,以及基于写入redis+rocketmq异步写db,可以抗多大写流量压力,包括临时扩容一批机器后,整体全链路大致可以抗多大的读写TPS,这些都得通过全链路压测去测试出来。然后应该根据这个系统能整体抗的最大读写压力,在nginx那一层加入限流机制,一旦要是每秒流量超过了最大值,此时直接限流,不允许继续放行,避免系统被压垮,如下图所示