本文作为朱栩老师的上课笔记

原文如下,

淘宝技术架构演进之路 - 云+社区 - 腾讯云 (tencent.com)

基本概念

  • 分布式系统

    一个系统的多个模块在不同服务器上部署

  • 高可用

    系统中部分节点失效,其他节点能够代替它继续完成服务,可认为系统具有高可用性。

  • 集群

    一个特定领域的软件部署在多台服务器上并作为一个整体提供一类服务。

  • 负载均衡

    请求发送到系统时,通过某些方式把请求均匀分发到多个节点上,使系统中每个节点能够均匀的处理请求负载,则可认为系统是负载均衡的。

  • 代理

    • 正向代理

      系统内访问外部网络时,通过一个统一的代理服务器把请求转发出去,从外部看来该请求就是代理服务器发出的,此时代理服务器实现了正向的代理。

    • 反向代理

      外部请求进入系统时,代理服务器把该请求转发到系统内的某个服务器,从外部看来,该请求的处理者就是代理服务器,此时代理服务器实现了反向代理。

架构演进

架构0 单机架构

一个非常普通,非常简单的单机架构,只有一台服务器主机,Tomcat与数据库放在同一台服务器上。

随着用户数的增长,单机应对并发读写数据库的场景成为瓶颈。

单机架构的服务器升级只能基于硬件升级,即垂直扩展。但是垂直扩展的程度有局限性,当升级到一定程度时,升级额外投入的成本将变得越来越高,甚至可能最后提升1倍性能需要投入10倍成本。

架构1 Tomcat与数据库分开部署

一般来说,Web服务器更多侧重CPU密集型应用,而数据库服务器更多侧重于IO密集型应用。若将两者分离,则可以分别针对其应用特点进行特定硬件的优化升级,两者都可继续垂直扩展。

于是架构1将Tomcat服务器与数据库服务器分开到两台服务器主机,两者通信由原来的单机进程间通信转变为多机网络通信。

往往用户的一次数据库查询伴随这多次的关联查询,随着用户数的增长,并发读写数据库成为了瓶颈。

架构2 引入本地缓存和分布式缓存

于是架构2引入了本地缓存分布式缓存

当用户查询数据库后,将数据缓存在服务器中,当用户下一次查询时,直接使用缓存数据,避免了再次查询数据库。
    由于本地缓存需要消耗大量的内存,当用户数增长后,服务器内存将会成为瓶颈,垂直扩展服务器需要升级硬件的成本较高。
    于是引入了分布式缓存服务器,该服务器主要特点就是内存大,当用户一定时间未使用该数据,那么说明该数据较冷,可将其放入分布式缓存服务器中,而且该缓存服务器可动态水平扩展,这又可以大幅度削减数据库访问。
    使用memcached作为本地缓存,使用了redis作为了分布式缓存。

此时,数据库这里的瓶颈暂时得到满足,但是随着用户数的增长,并发压力主要落在了单机的Web服务器,用户的响应逐步变慢。

架构3 引入反向代理实现负载均衡

引入了Nginx反向代理实现Tomcat服务器的负载均衡

在多台服务器上分别部署Tomcat,使用反向代理软件(Nginx)把请求均匀分发到每个Tomcat中。这样Tomcat服务器的水平扩展能力将大大提高。
        此处假设Tomcat最多支持100个并发,Nginx最多支持50000个并发,那么理论上Nginx把请求分发到500个Tomcat上,就能抗住50000个并发。

WebServer水平扩展后,还需要考虑session共享的问题,当用户第一次访问在1号服务器完成登陆后,下一次请求被分发到其他服务器也要确定用户已登陆的状态,这个session数据将保存在分布式缓存中完成Web服务器间的session共享

由于使用了多台Web服务器,此时Tomcat本地缓存就不太合适了,一般就考虑放到分布式缓存中,此时整个架构中的Tomcat节点就不具备保存用户状态的职责,仅作为单纯的计算节点,服务器可随时补充或撤离,此时系统具备很高的灵活性。

随着用户数的增长,并发量增长意味着更多的请求穿透到数据库,缓存机制只能减缓数据库的压力,不能从根本解决数据库的并发压力,单机数据库的瓶颈最终一定会产生。

架构4 数据库读写分离

考虑到在架构3中将Tomcat转变为单纯的计算节点后可以大大提高其水平扩展能力,可考虑对数据库也添加一定的水平扩展能力。

通过统计分析可得,实际上大部分场景下,数据库的读取操作的频率远远高于写入的频率,所以可考虑扩展几份数据库只用来读取,只针对主数据库执行写入操作,当主数据库写入完毕后,同步更新所有用于只读的数据库,实现了数据库的读写分离,在一定程度上实现了读操作的水平扩展能力。

读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写入数据场景,可通过在缓存中多写一份,通过缓存获得最新数据。

其中涉及的技术包括:

  • Mycat,它是数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库
  • 还会涉及数据同步,数据一致性的问题。

随着业务的变多,不同业务的访问量差距较大,不同业务直接竞争数据库(主要体现在写数据库上),相互影响性能。

架构5 数据库按业务分库

开始分库,按业务拆分,使得业务之间的数据库资源竞争大大降低,但是这可能会损失一些数据一致性的要求。同时这样也很难直接对跨业务的表做关联分析,需要使用其他途径解决。

随着业务的增长,单机写库还是最终达到瓶颈。

架构6 大表拆分为小表

image-20220515133616580

​ 如类似话费查询,支付记录查询等账单查询通常是按月查询,这就是把数据库的大表继续划分成多张小表,查询时根据业务需求路由到某张表中。也可以使用hash,如对数据进行hash分桶,分别路由到相应的表中。

​ 只要实时操作的表数据量足够小,请求能够均匀分发到多台服务器上的小表,数据库就能通过水平扩展提高性能。

​ 如前面所说的Mycat数据库中间件就支持大表拆分为小表情况下的访问控制。

​ 这种做法缺点就是增加了数据库运维难度,对DBA要求较高。

​ 这种设计已经算是较为简陋的分布式数据库了,但是这只是一个逻辑的数据库整体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发,由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结果的汇总可能由数据库接口层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现。

​ 当数据库与服务器都有一定的水平扩展能力后,发现Nginx仍然为单体架构,无法实现多Nginx的负载均衡。

架构7 使用LVS或F5来使多个Nginx负载均衡

image-20220515174048641

​ 新增一个LVS(Linux虚拟服务器),能够直接在第四层传输层对TCP协议进行负载均衡,而Nginx是基于第七层应用层的http协议的负载均衡,故可以使用LVS对nginx进行负载均衡。

​ F5是一种专门用于负载均衡的硬件,性能比LVS高,但是价格贵。

​ LVS是单机软件,若LVS所在服务器宕机,则导致整个后端无法访问,故需要增加备用节点。

​ 可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会自动更新路由器中的路由表,把虚拟IP重定向到另外一台正常的LVS服务器,从而达到LVS服务器高可用的效果。

​ 此处需要注意的是,上图中从Nginx层到Tomcat层这样画并不代表全部Nginx都转发请求到全部的Tomcat,在实际使用时,可能会是几个Nginx下面接一部分的Tomcat,这些Nginx之间通过keepalived实现高可用,其他的Nginx接另外的Tomcat,这样可接入的Tomcat数量就能成倍的增加。

​ 由于LVS也是单机的,随着并发数增长到几十万时,LVS服务器最终会达到瓶颈,此时用户数达到千万甚至上亿级别,用户分布在不同的地区,与服务器机房距离不同,导致了访问的延迟会明显不同

架构8 通过DNS轮询实现机房间的负载均衡

image-20220515181652784

​ 每个DNS服务器可配置一个域名对于多个IP地址,每个IP地址对应不同机房的虚拟IP地址

​ 当用户访问www.taobao.com时,DNS服务器使用轮询或其他策略来选择某个IP返回给用户

​ 这种方式可以实现机房间的负载均衡,至此系统可以做到跨机房级别的水平扩展

​ 至此,系统入口处的请求并发量不再是问题

​ 随着数据的丰富程度和业务的发展,检索,分析需求越来越丰富,单靠传统数据库无法解决如此丰富的需求。

架构9 引入NoSQL数据库和搜索引擎等技术

image-20220515183631851

​ 当传统数据库数据达到一定规模后,一切特殊场景的复杂查询便不再适用了。如统计报表等场景在大量数据的情况下不一定能在可接受的时间内跑出结果。

​ 对于全文检索,可变数据结构等场景,传统数据库并不使用,所以需要针对特定场景引入合适的解决方案。

  • 对于海量文件数据的存储,可通过分布式文件系统HDFS解决
  • 对于Key-Value类型的数据,可通过HBase和Redis等方案解决
  • 对于全文检索的场景,可通过搜索引擎如ElasticSearch去解决
  • 对于多维分析的场景,可通过Kylin或Druid等方案解决

​ 当然,这么做会导致系统需要引入更多的组件,将会提高系统的复杂度,不同组件需要进行数据同步,需要考虑一致性问题,需要有更多运维手段去管理这些组件等等。

​ 引入更多组件解决了丰富的需求,业务维度能够极大扩充,随之而来的是一个应用中包含了太多的业务代码,业务的迭代变得困难。

架构10 大应用拆分为小应用

image-20220515225624855

​ 按业务划分应用代码,使单个应用单一职责,各个应用相互之间可以独立升级迭代。这时候应用之间需要一些公共配置,可以使用分布式配置中心Zookeeper解决。

​ 不同应用之间存在公共模块,由应用单独管理会导致当公共模块升级时,所有应用代码都要统一升级。

架构11 复用的功能抽离成微服务

image-20220515225939088

​ 如用户管理,订单,支付,鉴权等功能在多个应用中都存在,故可将这些功能的代码单独抽离出一个服务来管理,即微服务。应用与服务之间通过HTTP,TCP,RPC等多种方式来访问公共服务,每个服务都可以由单独的团队来管理。

​ 此外,还可以通过Dubbo、SpringCloud等框架实现服务治理、限流、熔断、降级等功能来提高服务的稳定性和可用性。

​ 不同服务的接口访问方式不同,用于代码需要适配多种访问方式才能使用服务。此外,应用访问服务,服务之间也相互访问,调用链将变得非常复杂,逻辑较为混乱。

架构12 引入企业服务总线ESB屏蔽服务接口的访问差异

image-20220515231655977

​ 通过ESB统一进行访问协议转换,应用统一通过ESB来访问后端服务,服务与服务之间也通过ESB来相互调用,以此降低系统的耦合程度。这种单个应用拆分为多个应用,公共服务单独抽取出来来管理,并使用企业消息总线来解除服务之间耦合问题的架构,就是所谓的SOA(面向服务)架构,这种架构与微服务架构容易混淆,因为表现形式十分相似。个人理解,微服务架构更多是指把系统里的公共服务抽取出来单独运维管理的思想,而SOA架构则是指一种拆分服务并使服务接口访问变得统一的架构思想,SOA架构中包含了微服务的思想。

​ 业务不断发展,应用和服务都会不断变多,应用和服务的部署变得复杂,同一台服务器上部署多个服务还要解决运行环境冲突的问题,此外,对于如大促这类需要动态扩缩容的场景,需要水平扩展服务的性能,就需要在新增的服务上准备运行环境,部署服务等,运维将变得十分困难

架构13 引入容器化技术实现运行环境隔离与动态服务管理

image-20220515233132038

​ 目前最流行的容器化技术是Docker,最流行的容器管理服务是Kubernetes(K8S),应用/服务可以打包为Docker镜像,通过K8S来动态分发和部署镜像。Docker镜像可理解为一个能运行你的应用/服务的最小的操作系统,里面放着应用/服务的运行代码,运行环境根据实际的需要设置好。把整个“操作系统”打包为一个镜像后,就可以分发到需要部署相关服务的机器上,直接启动Docker镜像就可以把服务起起来,使服务的部署和运维变得简单。

​ 在大促的之前,可以在现有的机器集群上划分出服务器来启动Docker镜像,增强服务的性能,大促过后就可以关闭镜像,对机器上的其他服务不造成影响(在3.14节之前,服务运行在新增机器上需要修改系统配置来适配服务,这会导致机器上其他服务需要的运行环境被破坏)。

​ 使用容器化技术后服务动态扩缩容问题得以解决,但是机器还是需要公司自身来管理,在非大促的时候,还是需要闲置着大量的机器资源来应对大促,机器自身成本和运维成本都极高,资源利用率低

架构14 以云平台承载系统

image-20220515234313902

​ 系统可部署到公有云上,利用公有云的海量机器资源,解决动态硬件资源的问题,在大促的时间段里,在云平台中临时申请更多的资源,结合Docker和K8S来快速部署服务,在大促结束后释放资源,真正做到按需付费,资源利用率大大提高,同时大大降低了运维成本。

​ 所谓的云平台,就是把海量机器资源,通过统一的资源管理,抽象为一个资源整体,在之上可按需动态申请硬件资源(如CPU、内存、网络等),并且之上提供通用的操作系统,提供常用的技术组件(如Hadoop技术栈,MPP数据库等)供用户使用,甚至提供开发好的应用,用户不需要关系应用内部使用了什么技术,就能够解决需求(如音视频转码服务、邮件服务、个人博客等)。在云平台中会涉及如下几个概念:

  • IaaS:基础设施即服务。对应于上面所说的机器资源统一为资源整体,可动态申请硬件资源的层面;
  • PaaS:平台即服务。对应于上面所说的提供常用的技术组件方便系统的开发和维护;
  • SaaS:软件即服务。对应于上面所说的提供开发好的应用或服务,按功能或性能要求付费。

​ 至此,以上所提到的从高并发访问问题,到服务的架构和系统实施的层面都有了各自的解决方案,但同时也应该意识到,在上面的介绍中,其实是有意忽略了诸如跨机房数据同步、分布式事务实现等等的实际问题,这些问题以后有机会再拿出来单独讨论

参考文献

淘宝技术架构演进之路