搭建了负载均衡技术的服务器是大量的并发访问或数据流量的入口,它的任务就是将这些流量分担到多台节点设备上分别处理,从而增加吞吐量,减少系统响应时间。除了并发请求,负载均衡服务器还可以将单个复杂任务分配转发给后端多个节点处理,处理完再汇总返回给用户。

总而言之,负载均衡是一种网络技术,目的是:

  1. 优化资源使用
  2. 最大化吞吐量
  3. 最小化响应时间
  4. 避免任何单个资源的过载


    基于OSI七层网络模型来分类的负载均衡

    二层负载均衡 (Layer 2 Load Balancing)

一般是用虚拟mac地址方式,负载均衡服务器接收后会修改网卡的MAC地址,改为后端实际的MAC地址响应

三层负载均衡 (Layer 3 Load Balancing)
用虚拟IP地址的方式,用户端对虚拟的IP地址发出请求,负载均衡服务器会拿到 TCP/IP 的数据包,对数据包的 IP 地址进行转换,修改成真实的后端IP地址,然后把数据包重新发送出去。

四层负载均衡 (Layer 4 Load Balancing)

四层负载均衡在三层负载的基础上,加上了第四层的端口号,使用了IP + Port的方式来决定哪些流量需要做负载均衡,并记录下这个TCP或者UDP的流量是由哪台服务器处理的,后续这个连接的所有流量都同样转发到同一台服务器处理。

七层负载均衡 (Layer 7 Load Balancing)
七层的负载均衡是基于虚拟URL或主机IP的负载均衡。它在高级应用层上执行,会处理每个消息的实际内容。对比四层负载均衡,七层的负载均衡性能稍微差一点,因为它需要算法识别URL,cookie和HTTP head等信息。但是它的安全性却更高,它可以识别DDos攻击等其他一些恶意攻击,可以添加一些额外功能像是会话保持,图片压缩等等。

一般来说多个层级的负载均衡都是需要的,越往上功能越丰富,越底层的负载均衡越简单。因为主机和主机的通信是通过IP和端口进行的,所以软件层面上所能实现的负载均衡只能是4,7层。作为一名软件工程师,能接触到的其实也就只有四层和七层负载。

除了2347层模型,通过 DNS 实现负载均衡功能的场景也是非常常见的。


高可用的架构设计

当用户发送DNS返回的虚拟IP的时候,返回的IP是下一层的负载均衡的虚拟IP,如下图所示:

image.png
使用四层的原因是因为四层相对七层抗负载能力更强,性能更高,对内存和CPU资源消耗比较低。
同时,因为不管是请求还是响应的数据包都要通过四层负载均衡服务器进行 IP地址转换,为了防止流量瓶颈或者单点故障(Single Point Failure),我们需要对设备进行热备,以集群的模式存在。

当数据流量通过四层负载的分流策略分配到不同的下层负载,也就是七层负载上之后,会由七层负载针对http应用本身做分配和转发,比如这里的例子,根据不同的endpoint,分配请求到不同的下游应用服务器上。

这种架构设计可以扛得住千万,甚至亿级别的日访问量。如果是访问量比较小的应用,其实可以直接DNS + 七层负载就可以了。