一、基本概念

为什么需要负载均衡?

1、服务端接收请求的时候,超出了最高的并发处理能力,该如何来解决
2、服务器如果宕机了,该如何解决
多台服务器进行性能的水平扩展以及避免单点故障的出现

什么是负载均衡?

系统的扩展可以分为纵向扩展和横向扩展纵向扩展是从单机的角度出发,通过增加系统的硬件处理能力来提升服务器的处理能力横向扩展是通过添加机器来满足大型网站服务的处理能力
负载均衡 - 图1
这里面设计到两个重要的角色分别是”应用集群”和”负载均衡”
应用集群:将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理并返回响应的数据。
负载均衡器:将用户访问的请求根据对应的负载均衡算法,分发到集群中的一台服务器进行处理。

负载均衡的作用:

1、解决服务器的高并发压力,提高应用程序的处理性能。
2、提供故障转移,实现高可用。
3、通过添加或减少服务器数量,增强网站的可扩展性。
4、在负载均衡器上进行过滤,可以提高系统的安全性。

负载均衡常用的处理方式

方式一:用户手动选择

方式二:DNS轮询方式

大多数域名注册商都支持对同一个主机名添加多条A记录,这就是DNS轮询,DNS服务器将解析请求按照A记录的顺序,随机分配到不同的IP上。
image.png
但是本地会缓存DNS解析结果,可以使用 ipconfig/flushdns 来手动清空缓存。
明显问题:
1、可靠性低,如果一台服务器宕机,那么所有的访问该服务器的请求将不会有所回应
2、负载均衡不均衡,因为本地缓存

方式三:四/七层负载均衡

OSI(Open System Interconnection)开放式系统互联模型,这个是由国际标准化组织ISO制定的一个不基于具体机型、操作系统或公司的网络体系结构。该模型将网络通信的工作分为七层。
image.png
应用层:为应用程序提供网络服务
表示层:对数据进行格式化、编码、加密、压缩等操作
会话层:建立、维护、管理会话连接
传输层:建立、维护、管理端到端的连接,常见的有UDP/TCP
网络层:IP寻址和路由选择
数据链路层:控制网络层与物理层之间的通信
物理层:比特流传输
所谓四层负载均衡指的是OSI模型中的传输层,主要是基于IP+PORT的负载均衡
所谓七层负载均衡指的是OSI模型中的应用层,主要是基于虚拟的URL或主机IP的负载均衡

  1. 实现四层负载均衡的方式:
  2. 硬件:F5 BIG-IP Radware
  3. 软件:LVS Nginx Hayproxy
  4. 实现七层负载均衡的方式:
  5. 软件:Nginx Hayproxy

四层和七层负载均衡的区别
1、四层负载均衡数据包是在底层就进行了分发,而七层负载均衡数据包则在最顶端进行分发,所以四层负载均衡的效率要比七层负载均衡的效率高;
2、四层负载均衡不识别域名,而七层负载均衡识别域名
处理四层和七层负载 其实还有二层、三层负载均衡,二层是在数据链路层基于mac地址来实现负载均衡,三层是在网络层一般采用虚拟IP地址的方式实现负载均衡
实际环境采用的模式:四层负载(LVS)+七层负载(Nginx)

二、Nginx七层负载均衡

Nginx需要实现七层负载均衡需要用到proxy_pass代理模块配置。Nginx默认安装支持这个模块。Nginx的负载均衡是在Nginx的反向代理基础上把用户的请求根据制定的算法分发到一组【upstream虚拟服务池】

2.1 Nginx七层负载均衡的指令

upstream指令

该指令是用来定义一组服务器,他们可以是监听不同端口的服务器,并且也可以是同时监听TCP和Unix socket的服务器。服务器可以制定不同的权重,默认为1。

语法 upstream name {…}
默认值 -
位置 http

server指令

该指令用来制定后端服务器的名称和一些参数,可以使用域名、IP、端口或者Unix socket

语法 server name {parameters}
默认值 -
位置 upstream

2.2 Nginx七层负载均衡的实现流程

image.png
服务端设置
47.110.48.67:8083

  1. server {
  2. listen 9001;
  3. server_name localhost;
  4. default_type text/html;
  5. location /{
  6. return 200 '<h1>152.136.178.244:9001</h1>';
  7. }
  8. }
  9. server {
  10. listen 9002;
  11. server_name localhost;
  12. default_type text/html;
  13. location /{
  14. return 200 '<h1>152.136.178.244:9002</h1>';
  15. }
  16. }
  17. server {
  18. listen 9003;
  19. server_name localhost;
  20. default_type text/html;
  21. location /{
  22. return 200 '<h1>152.136.178.244:9003</h1>';
  23. }
  24. }
  1. upstream backend {
  2. server 152.136.178.244:9001;
  3. server 152.136.178.244:9002;
  4. server 152.136.178.244:9003;
  5. }
  6. server {
  7. listen 8083;
  8. server_name localhost;
  9. location / {
  10. proxy_pass http://backend;
  11. }
  12. }

2.3 Nginx负载均衡状态

代理服务器在负载均衡调度中的状态有以下几个:

状态 概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout 经过max_fails失败后,服务暂停时间
max_conns 限制最大的接收连接数

down

一般对于需要停机维护的服务器进行设置

  1. upstream backend {
  2. server 152.136.178.244:9001 down;
  3. server 152.136.178.244:9002;
  4. server 152.136.178.244:9003;
  5. }
  6. server {
  7. listen 8083;
  8. server_name localhost;
  9. location / {
  10. proxy_pass http://backend;
  11. }
  12. }

backup

将该服务器标记为备份服务器,当主服务器不可用时,将用来传递请求
当9003宕机的时候,会使用9002

  1. upstream backend {
  2. server 152.136.178.244:9001 down;
  3. server 152.136.178.244:9002 backup;
  4. server 152.136.178.244:9003;
  5. }
  6. server {
  7. listen 8083;
  8. server_name localhost;
  9. location / {
  10. proxy_pass http://backend;
  11. }
  12. }

max_conns

max_conns=number:用于设置代理服务器同时活动链接的最大数量,默认为0,表示不限制,使用该配置可以根据后端服务器处理请求的并发量来进行设置,防止后端服务器被压垮。

max_fails和fail_timeout

max_fails=number:设置允许请求代理服务器失败的次数,默认为1。
fail_timeout=time:设置经过max_fails失败后,服务器暂停的时间,默认是10秒。

  1. upstream backend {
  2. server 152.136.178.244:9001 down;
  3. server 152.136.178.244:9002 backup;
  4. server 152.136.178.244:9003 max_fails=3 fail_timeout=15;
  5. }
  6. server {
  7. listen 8083;
  8. server_name localhost;
  9. location / {
  10. proxy_pass http://backend;
  11. }
  12. }

三、负载均衡策略

Nginx的upstream支持如下六种方式的分配算法,分别是:

算法名称 说明
轮询 默认方式
weight 权重方式
ip_hash 依据ip分配方式
least_conn 依据最少连接方式
url_hash 依据URL分配方式
fair 依据响应时间方式

3.1 轮询

按请求时间顺序逐个分配到不同的后端服务器,是默认的配置

3.2 weight加权[加权轮询]

weight=number:用来设置服务器的权重,默认为1,权重数据越大,被分配到请求的记录越大;该权重值主要是针对实际环境中不同的后端服务器硬件配置进行调整的,所以此策略比较适合服务器的硬件配置差别比较大的情况。

  1. upstream backend {
  2. server 152.136.178.244:9001 weight=10;
  3. server 152.136.178.244:9002 weight=5;
  4. server 152.136.178.244:9003 weight=3;
  5. }
  6. server {
  7. listen 8083;
  8. server_name localhost;
  9. location / {
  10. proxy_pass http://backend;
  11. }
  12. }

3.3 ip_hash

session共享,如果需要做一个登录操作,把登录信息放到一个session中。
当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。这样,当来自某一个IP的用户在后端Web服务器A上登录后,在访问该站点的其他URL,能保证器访问的还是后端Web服务器A。

语法 ip_hash
默认值
位置 upstream
  1. upstream backend {
  2. ip_hash;
  3. server 152.136.178.244:9001 ;
  4. server 152.136.178.244:9002 ;
  5. server 152.136.178.244:9003 ;
  6. }
  7. server {
  8. listen 8083;
  9. server_name localhost;
  10. location / {
  11. proxy_pass http://backend;
  12. }
  13. }

缺点:无法保证后端服务器的负载均衡,可能导致有些后端服务器收到的请求多,有些后端服务器接收的请求少,而且设置后端服务器权重等方法将不起作用。
解决办法:通过redis缓存,将登录信息放在redis,不使用session使用redis

3.4 least_conn

最少连接,把请求转发给连接数较少的后端服务器。适合用在处理请求处理时间长短不一致造成服务器过载的情况。

  1. upstream backend {
  2. least_conn;
  3. server 152.136.178.244:9001 ;
  4. server 152.136.178.244:9002 ;
  5. server 152.136.178.244:9003 ;
  6. }

3.5 url_hash

按访问的url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再次收到请求,可以从缓存中读取。

  1. upstream backend {
  2. hash &request_uri;
  3. server 152.136.178.244:9001 ;
  4. server 152.136.178.244:9002 ;
  5. server 152.136.178.244:9003 ;
  6. }

访问如下地址:

  1. http://47.110.48.67:8083/a
  2. http://47.110.48.67:8083/b
  3. http://47.110.48.67:8083/c

3.6 fair

fair采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。那么如何使用第三方模块fair呢。
① 首先配置文件如下:

  1. upstream backend {
  2. fair;
  3. server 152.136.178.244:9001 ;
  4. server 152.136.178.244:9002 ;
  5. server 152.136.178.244:9003 ;
  6. }

② 下载nginx-upstream-fair模块

  1. 下载地址:https://github.com/gnosek/nginx-upstream-fair

③ 上传并解压

  1. #解压
  2. unzip nginx-upstream-fair-master.zip
  3. #改名
  4. mv nginx-upstream-fair-master fair
  5. #查看路径
  6. pwd
  7. /home/nginx-module

四、Nginx四层负载均衡

—with-stream