Nginx

一、Nginx安装

1、在官网http://nginx.org/下载对应的Nginx包,推荐使用稳定版本

2、上传Nginx到linux系统

3、安装依赖环境

(1)安装gcc环境

  1. yum install gcc-c++

(2)安装PCRE库,用于解析正则表达式

  1. yum install -y pcre pcre-devel

(3)zlib压缩和解压缩依赖

  1. yum install -y zlib zlib-devel

(4)SSL 安全的加密的套接字协议层,用于HTTP安全传输,也就是https

  1. yum install -y openssl openssl-devel

4、解压,需要注意,解压后得到的是源码,源码需要编译后才能安装

  1. tar -zxvf nginx-1.16.1.tar.gz

5、编译之前,先创建Nginx临时目录,如果不创建,在启动Nginx的过程中会报错

  1. mkdir /var/temp/nginx -p

6、在Nginx目录,输入如下命令进行配置,目的是为了创建makefile文件

  1. ./configure \
  2. --prefix=/usr/local/nginx \
  3. --pid-path=/var/run/nginx/nginx.pid \
  4. --lock-path=/var/lock/nginx.lock \
  5. --error-log-path=/var/log/nginx/error.log \
  6. --http-log-path=/var/log/nginx/access.log \
  7. --with-http_gzip_static_module \
  8. --http-client-body-temp-path=/var/temp/nginx/client \
  9. --http-proxy-temp-path=/var/temp/nginx/proxy \
  10. --http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
  11. --http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
  12. --http-scgi-temp-path=/var/temp/nginx/scgi

注:代表在命令行中换行,用于提高可读性配置命令:
Nginx从安装到高可用 - 图1

7、make编译&安装

  1. make && make install

8、进入sbin目录启动Nginx

启动:nginx
停止:./nginx -s stop
重新加载:./nginx -s reload

二、配置反向代理

1、配置upstream

  1. upstream [proxyName] {
  2. server 192.168.1.173:8080;
  3. server 192.168.1.174:8080;
  4. server 192.168.1.175:8080;
  5. }

2、配置server

  1. server {
  2. listem 80;
  3. server_name www.tomcats.com;
  4. location / {
  5. proxy_pass http://tomcats;
  6. }
  7. }

三、配置负载均衡

Nginx默认采用轮训的方式进行负载均衡

1、使用加权轮询

  1. upstream [proxyName] {
  2. server 192.168.1.173:8080 weight=1;
  3. server 192.168.1.174:8080 weight=5;
  4. server 192.168.1.175:8080 weight=2;
  5. }

2、hash负载均衡

  1. upstream [proxyName] {
  2. ip_hash
  3. server 192.168.1.173:8080;
  4. server 192.168.1.174:8080;
  5. server 192.168.1.175:8080;
  6. }

hash算法实际上只会计算 192.168.1这段做哈希
使用ip_hash的注意点:

  • 不能把后台服务器直接移除,只能标记down.

    3、url hash负载均衡

    1. upstream [proxyName] {
    2. hash $request_url;
    3. server 192.168.1.173:8080;
    4. server 192.168.1.174:8080;
    5. server 192.168.1.175:8080;
    6. }

    4、最小连接负载均衡

    1. upstream [proxyName] {
    2. least_conn;
    3. server 192.168.1.173:8080;
    4. server 192.168.1.174:8080;
    5. server 192.168.1.175:8080;
    6. }

    四、upstream指令参数

  • max_conns:限制最大同时连接数 1.11.5之前只能用于商业版

  • slow_start:单位秒,权重在指定时间内从1上升到指定值,不适用与hash负载均衡、随机负载均衡 如果在 upstream 中只有一台 server,则该参数失效(商业版才有)
  • down:禁止访问
  • backup:备用机 只有在其他服务器无法访问的时候才能访问到 不适用与hash负载均衡、随机负载均衡
  • max_fails:表示失败几次,则标记server已宕机,剔出上游服务 默认值1
  • fail_timeout:表示失败的重试时间 默认值10

    1、keepalived

    ```nginx upstream [proxyName] { server 192.168.1.173:8080 weight=1; server 192.168.1.174:8080 weight=5; server 192.168.1.175:8080 weight=2;

    keepalive 32; #保持的连接数 }

server { listem 80; server_name www.tomcats.com;

  1. location / {
  2. proxy_pass http://tomcats;
  3. proxy_http_version 1.1; #连接的协议版本
  4. proxy_set_header Connection ""; 清空连接请求头
  5. }

}

  1. <a name="sx5qD"></a>
  2. ### 2、控制浏览器缓存
  3. ```nginx
  4. server {
  5. listem 80;
  6. server_name www.tomcats.com;
  7. location / {
  8. proxy_pass http://tomcats;
  9. expires 10s; #浏览器缓存10秒钟
  10. #expires @22h30m #在晚上10点30的时候过期
  11. #expires -1h #缓存在一小时前时效
  12. #expires epoch #不设置缓存
  13. #expires off #缓存关闭,浏览器自己控制缓存
  14. #expires max #最大过期时间
  15. }
  16. }

3、反向代理缓存

  1. upstream [proxyName] {
  2. server 192.168.1.173:8080 weight=1;
  3. server 192.168.1.174:8080 weight=5;
  4. server 192.168.1.175:8080 weight=2;
  5. }
  6. #proxy_cache_path 设置缓存保存的目录的位置
  7. #keys_zone设置共享内以及占用的空间大小
  8. #mas_size 设置缓存最大空间
  9. #inactive 缓存过期时间,错过此时间自动清理
  10. #use_temp_path 关闭零时目录
  11. proxy_cache_path /usr/local/nginx/upsteam_cache keys_zone=mycache:5m max_size=1g inactive=8h use_temp_path=off;
  12. server {
  13. listem 80;
  14. server_name www.tomcats.com;
  15. #开启并使用缓存
  16. proxy_cache mycache;
  17. #针对200和304响应码的缓存过期时间
  18. proxy_cache_valid 200 304 8h;
  19. location / {
  20. proxy_pass http://tomcats;
  21. }
  22. }

五、配置ssl证书提供https访问

1、安装SSL模块

要在nginx中配置https,就必须安装ssl模块,也就是: http_ssl_module。
进入到nginx的解压目录:/home/software/nginx-1.16.1
新增ssl模块(原来的那些模块需要保留)

  1. ./configure \
  2. --prefix=/usr/local/nginx \
  3. --pid-path=/var/run/nginx/nginx.pid \
  4. --lock-path=/var/lock/nginx.lock \
  5. --error-log-path=/var/log/nginx/error.log \
  6. --http-log-path=/var/log/nginx/access.log \
  7. --with-http_gzip_static_module \
  8. --http-client-body-temp-path=/var/temp/nginx/client \
  9. --http-proxy-temp-path=/var/temp/nginx/proxy \
  10. --http-fastcgi-temp-path=/var/temp/nginx/fastcgi \
  11. --http-uwsgi-temp-path=/var/temp/nginx/uwsgi \
  12. --http-scgi-temp-path=/var/temp/nginx/scgi \
  13. --with-http_ssl_module

编译和安装

  1. make && make install

2、配置HTTPS

把ssl证书 .crt 和 私钥 .key 拷贝到/usr/local/nginx/conf目录中。
新增 server 监听 443 端口:

  1. server {
  2. listen 443;
  3. server_name www.imoocdsp.com;
  4. # 开启ssl
  5. ssl on;
  6. # 配置ssl证书
  7. ssl_certificate 1_www.imoocdsp.com_bundle.crt;
  8. # 配置证书秘钥
  9. ssl_certificate_key 2_www.imoocdsp.com.key;
  10. # ssl会话cache
  11. ssl_session_cache shared:SSL:1m;
  12. # ssl会话超时时间
  13. ssl_session_timeout 5m;
  14. # 配置加密套件,写法遵循 openssl 标准
  15. ssl_protocols TLSv1 TLSv1.1 TLSv1.2;
  16. ssl_ciphers ECDHE-RSA-AES128-GCM-SHA256:HIGH:!aNULL:!MD5:!RC4:!DHE;
  17. ssl_prefer_server_ciphers on;
  18. location / {
  19. proxy_pass http://tomcats/;
  20. index index.html index.htm;
  21. }
  22. }

六、配置ha nginx

1、安装keepalived

(1)下载

https://www.keepalived.org/download.html

(2)解压

  1. tar -zxvf keepalived-2.0.18.tar.gz

(3)使用configure命令配置安装目录与核心配置文件所在位置:

  1. ./configure --prefix=/usr/local/keepalived --sysconf=/etc
  • prefix:keepalived安装的位置sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置则keepalived启动不了,/var/log/messages中会报错
  • sysconf:keepalived核心配置文件所在位置,固定位置,改成其他位置则keepalived启动不了,/var/log/messages中会报错

配置过程中可能会出现警告信息,如下所示: :::tips * WARNING - this build will not support IPVS with IPv6. Please install libnl/libnl-3 dev libraries to support IPv6 with IPVS. :::

  1. # 安装libnl/libnl-3依赖
  2. yum -y install libnl libnl-devel

(4)安装keepalived

  1. make && make install

(5)配置文件 在/etc/keepalived/keepalived.conf

(6)忘记安装配置的目录,则通过如下命令找到:

  1. whereis keepalived

(7)启动keepalived

进入sbin目录

  1. ./keepalived

2、配置keepalived 主机

(1)通过命令 vim keepalived.conf 打开配置文件

  1. global_defs {
  2. # 路由id:当前安装keepalived的节点主机标识符,保证全局唯一
  3. router_id keep_171
  4. }
  5. vrrp_instance VI_1 {
  6. # 表示状态是MASTER主机还是备用机BACKUP
  7. state MASTER
  8. # 该实例绑定的网卡
  9. interface ens33
  10. # 保证主备节点一致即可
  11. virtual_router_id 51
  12. # 权重,master权重一般高于backup,如果有多个,那就是选举,谁的权重高,谁就当选
  13. priority 100
  14. # 主备之间同步检查时间间隔,单位秒
  15. advert_int 2
  16. # 认证权限密码,防止非法节点进入
  17. authentication {
  18. auth_type PASS
  19. auth_pass 1111
  20. }
  21. # 虚拟出来的ip,可以有多个(vip)
  22. virtual_ipaddress {
  23. 192.168.1.161
  24. }
  25. }

附:查看网卡信息命令

  1. ip addr

(2)启动keepalived

(3)查看进程

  1. ps -ef|grep keepalived

(4)查看vip(虚拟ip)

在网卡ens33下,多了一个192.168.1.161,这个就是虚拟ip

3、把keepalived注册为系统服务

(1)拷贝配置文件

  • 将keepalived目录下etc/init.d/keepalived拷贝到/etc/init.d/下
  • 将keepalived目录下etc/sysconfig/keepalived拷贝到/etc/sysconfig/下

    (2)刷新systemctl

    1. systemctl daemon-reload

    (3)启动、停止、重启keepalived

    1. #启动
    2. systemctl start keepalived.service
    3. #停止
    4. systemctl stop keepalived.service
    5. #重启
    6. systemctl restart keepalived.service

    4、实现双机主备高可用

    (1)修改备机配置

    1. global_defs {
    2. router_id keep_172
    3. }
    4. vrrp_instance VI_1 {
    5. # 备用机设置为BACKUP
    6. state BACKUP
    7. interface ens33
    8. virtual_router_id 51
    9. # 权重低于MASTER
    10. priority 80
    11. advert_int 2
    12. authentication {
    13. auth_type PASS auth_pass 1111
    14. }
    15. virtual_ipaddress {
    16. # 注意:主备两台的vip都是一样的,绑定到同一个vip
    17. 192.168.1.161
    18. }
    19. }

    (2) 启动 Keepalived

    (3) 访问vip即可访问主机,当主机失效时访问vip就会访问到备机

    5、keepalived配置Nginx自动重启

    (1)编写脚本

    在/etc/keepalived/下创建脚本check_nginx_alive_or_not ```bash

    !/bin/bash

A=ps -C nginx --no-header |wc -l

判断nginx是否宕机,如果宕机了,尝试重启

if [ $A -eq 0 ];then /usr/local/nginx/sbin/nginx

  1. # 等待一小会再次检查nginx,如果没有启动成功,则停止keepalived,使其启动备用机
  2. sleep 3
  3. if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
  4. killall keepalived
  5. fi

fi

  1. <a name="Ni0V4"></a>
  2. #### (2)添加运行权限
  3. ```bash
  4. chmod +x /etc/keepalived/check_nginx_alive_or_not.sh

(3)配置keepalived监听nginx脚本

  1. vrrp_script check_nginx_alive {
  2. script "/etc/keepalived/check_nginx_alive_or_not.sh"
  3. interval 2 # 每隔两秒运行上一行脚本
  4. weight 10 # 如果脚本运行失败,则升级权重+10
  5. }

(4)在vrrp_instance中新增监控的脚本

  1. track_script {
  2. check_nginx_alive # 追踪 nginx 脚本
  3. }

(5)重启Keepalived使得配置文件生效

  1. systemctl restart keepalived

6、keepalived双主热备

(1)配置DNS轮询

在同一个域名下配置两个ip,自行百度

(2)配置第一台主机

  1. global_defs {
  2. router_id keep_171
  3. }
  4. vrrp_instance VI_1 {
  5. state MASTER i
  6. nterface ens33
  7. virtual_router_id 51
  8. priority 100
  9. advert_int 1
  10. authentication {
  11. auth_type PASS
  12. auth_pass 1111
  13. }
  14. virtual_ipaddress {
  15. 192.168.1.161
  16. }
  17. }
  18. vrrp_instance VI_2 {
  19. state BACKUP
  20. interface ens33
  21. virtual_router_id 52
  22. priority 80
  23. advert_int 1
  24. authentication {
  25. auth_type PASS
  26. auth_pass 1111
  27. }
  28. virtual_ipaddress {
  29. 192.168.1.162
  30. }
  31. }

(3)配置第二台主机

  1. global_defs {
  2. router_id keep_172
  3. }
  4. vrrp_instance VI_1 {
  5. state BACKUP
  6. interface ens33
  7. virtual_router_id 51
  8. priority 80
  9. advert_int 1
  10. authentication {
  11. auth_type PASS
  12. auth_pass 1111
  13. }
  14. virtual_ipaddress {
  15. 192.168.1.161
  16. }
  17. }
  18. vrrp_instance VI_2 {
  19. state MASTER
  20. interface ens33
  21. virtual_router_id 52
  22. priority 100
  23. advert_int 1
  24. authentication {
  25. auth_type PASS
  26. auth_pass 1111
  27. }
  28. virtual_ipaddress {
  29. 192.168.1.162
  30. }
  31. }

(4)重启两台Keepalived

  1. systemctl restart keepalived

七、LVS(Linux Virtual Server)实现高可用负载均衡

1、为什么要使用LVS+Nginx

  • lvs基于四层负载均衡,工作效率较Nginx的七层负载更高,使用LVS搭建Nginx集群,可以提高性能
  • 四层负载均衡无法对信息处理,只能通过ip+端口的形式转发,所以需要七成负载进行数据的处理
  • Nginx接收请求来回,LVS可以只接受不响应

    2、LVS的三种模式

    (1)NAT模式

  • 客户端将请求发往LVS,LVS会选择一台服务器响应请求,服务器将结果返回给LVS,LVS再返回给客户端。

  • 在NAT模式中,服务器的网关必须指向LVS,否则报文无法送达客户端
  • NAT 技术将请求的报文和响应的报文都需要通过LVS进行地址改写,因此网站访问量比较大的时候负载均衡调度器有比较大的瓶颈,一般要求最多之能 10-20 台节点
  • NAT 模式支持对 IP 地址和端口进行转换。即用户请求的端口和真实服务器的端口可以不一致

    (2)TUN模式

  • 客户端将请求发往LVS,LVS会选择一台服务器响应请求,在客户端与服务器之间建立隧道,返回结果的时候直接由服务器返回响应,不在经过LVS。

  • TUN模式必须所有的服务器上都绑定VIP的IP地址,所有的服务器都必须有网卡。
  • TUN模式走隧道运维难度大,并且会直接暴露服务器地址
  • 服务器将应答包直接发给用户。所以,减少了负载均衡器的大量数据流动,负载均衡器不再是系统的瓶颈,就能处理很巨大的请求量,这种方式,一台负载均衡器能够为很多服务器进行分发。而且跑在公网上就能进行不同地域的分发

    (3)DR模式

  • 客户端将请求发往LVS,LVS会选择一台服务器响应请求,返回结果的时候通过统一的路由进行返回,不在经过LVS。

  • 和TUN模式一样,LVS只是分发请求,应答包通过单独的路由返回给客户端,与TUN相比这种方式不需要隧道结构,可以兼容大多数的操作系统,同时统一路由可以隐藏真实的物理服务器。DR模式效率更高,但配置更复杂.
  • 所有服务器节点和LVS只能在一个局域网里面。

    3、搭建LVS-DR模式

    先关闭掉服务器上网络配置管理器,避免网络接口冲突

    1. systemctl stop NetworkManager
    2. systemctl disable NetworkManager

    (1)创建子接口(创建LVS的虚拟ip)

    进入网卡配置目录/etc/sysconfig/network-scripts/,找到网卡配置文件,这里以ifcfg-ens33为例,拷贝并创建子接口

    1. cp ifcfg-ens33 ifcfg-ens33:1

    修改子接口配置如下

  • 配置中的 192.168.1.150 就是vip,是提供给外网用户访问的ip地址

DEVICE=”ens33:1”
ONBOOT=”yes”
IPADDR=192.168.1.150
NETMASK=255.255.255.0
BOOTPROTO=static

  • 重启网络服务
    1. service network restart
    重启成功后,ip addr 查看一下,会发现多了一个ip,也就是虚拟ip(vip)
    注意:阿里云不支持配置网卡,需要购买相应的负载均衡服务,腾讯云支持配置网卡,但需要购买网卡支持,一个网卡支持10个虚拟ip配置

    (2)安装ipvsadm

    如今的centos都集成了LVS,所以ipvs是自带的,只需要安装ipvsadm即可(ipvsadm是管理集群的工具,通过ipvs可以管理集群,查看集群等操作)
    1. yum install ipvsadm

    (3)配置服务器(RS)的虚拟ip

    进入网卡配置目录/etc/sysconfig/network-scripts/,找到ifcfg-lo,拷贝并创建子接口
    1. cp ifcfg-lo ifcfg-lo:1
    修改子接口配置如下
    1. DEVICE="lo:1"
    2. IPADDR=192.168.1.150
    3. NETMASK=255.255.255.255
    4. NETWORK=127.0.0.0
    5. BROADCAST=127.255.255.255
    6. ONBOOT="yes"
    7. NAME=loopback
    重启网络服务成功后,ip addr 查看一下,会发现多了一个ip,也就是虚拟ip(vip)

    (4)为服务器(RS)配置arp

    ARP响应级别与通告行为参数说明
    arp-ignore:ARP响应级别(处理请求)
    0:只要本机配置了ip,就能响应请求
    1:请求的目标地址到达对应的网络接口,才会响应请求
    arp-announce:ARP通告行为(返回响应)
    0:本机上任何网络接口都向外通告,所有的网卡都能接受到通告
    1:尽可能避免本网卡与不匹配的目标进行通告2:只在本网卡通告
    打开sysctl.conf:
    1. vim /etc/sysctl.conf
    配置所有网卡、默认网卡以及虚拟网卡的arp响应级别和通告行为,分别对应:all,default,lo ```

    configration for lvs

    net.ipv4.conf.all.arp_ignore = 1 net.ipv4.conf.default.arp_ignore = 1 net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2 net.ipv4.conf.default.arp_announce = 2 net.ipv4.conf.lo.arp_announce = 2

  1. 刷新配置文件
  2. ```bash
  3. sysctl -p

增加一个网关,用于接收数据报文,当有请求到本机后,会交给lo去处理

  1. route add -host 192.168.1.150 dev lo:1

将网关添加至开机启动

  1. echo "route add -host 192.168.1.150 dev lo:1" >> /etc/rc.local

(5)使用ipvsadm配置集群规则

创建LVS节点,用户访问的集群调度者

  1. ipvsadm -A -t 192.168.1.150:80 -s rr -p 5
  • -A:添加集群
  • -t:tcp协议ip地址:设定集群的访问
  • ip:也就是LVS的虚拟ip
  • -s:设置负载均衡的算法,
  • rr:表示轮询
  • -p:设置连接持久化的时间,在指定时间内同一个用户的请求会访问到同一个服务器中

创建多台RS真实服务器

  1. ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.171:80 -g
  2. ipvsadm -a -t 192.168.1.150:80 -r 192.168.1.172:80 -g
  • -a:添加真实服务器
  • -t:tcp协议
  • -r:真实服务器的ip地址
  • -g:设定DR模式

保存到规则库,否则重启失效

  1. ipvsadm -S

检查集群

  1. #查看集群列表
  2. ipvsadm -Ln
  3. #查看集群状态
  4. ipvsadm -Ln --stats

一些其他命令

  1. # 重启ipvsadm,重启后需要重新配置
  2. service ipvsadm restart
  3. # 查看持久化连接
  4. ipvsadm -Ln --persistent-conn
  5. # 查看连接请求过期时间以及请求源ip和目标ip
  6. ipvsadm -Lnc
  7. # 设置tcp tcpfin udp 的过期时间(一般保持默认)
  8. ipvsadm --set 1 1 1
  9. # 查看过期时间
  10. ipvsadm -Ln --timeout

(6)访问虚拟ip,完成LVS搭建

附:LVS的负载均衡算法

(1)静态算法

静态:根据LVS本身自由的固定的算法分发用户请求。

  • 轮询(Round Robin 简写’rr’):轮询算法假设所有的服务器处理请求的能力都一样的,调度器会把所有的请求平均分配给每个真实服务器。(同Nginx的轮询)
  • 加权轮询(Weight Round Robin 简写’wrr’):安装权重比例分配用户请求。权重越高,被分配到处理的请求越多。(同Nginx的权重)
  • 源地址散列(Source Hash 简写’sh’):同一个用户ip的请求,会由同一个RS来处理。(同Nginx的ip_hash)
  • 目标地址散列(Destination Hash 简写’dh’):根据url的不同,请求到不同的RS。(同Nginx的url_hash)

    (2)动态算法

    动态:会根据流量的不同,或者服务器的压力不同来分配用户请求,这是动态计算的。

  • 最小连接数(Least Connections 简写’lc’):把新的连接请求分配到当前连接数最小的服务器。

  • 加权最少连接数(Weight Least Connections 简写’wlc’):服务器的处理性能用数值来代表,权重越大处理的请求越多。Real Server 有可能会存在性能上的差异,wlc动态获取不同服务器的负载状况,把请求分发到性能好并且比较空闲的服务器。
  • 最短期望延迟(Shortest Expected Delay 简写’sed’):特殊的wlc算法。举例阐述,假设有ABC三台服务器,权重分别为1、2、3 。如果使用wlc算法的话,当一个新请求进来,它可能会分给ABC中的任意一个。使用sed算法后会进行如下运算:
    • A:(1+1)/1=2
    • B:(1+2)/2=3/2
    • C:(1+3)/3=4/3

最终结果,会把这个请求交给得出运算结果最小的服务器。最少队列调度(Never Queue 简写’nq’):永不使用队列。如果有Real Server的连接数等于0,则直接把这个请求分配过去,不需要在排队等待运算了(sed运算)。

八、搭建Keepalived+Lvs+Nginx高可用集群负载均衡

如果原先服务器上配置了LVS+nginx需要清空ipvsadm中的配置

  1. ipvsadm -C

如果配置了Keepalived+Nginx双主集群也需要去除掉Keepalived中原先的配置,按照的后文进行配置

使用keepalived配置Master LVS

在LVS的机器上安装keepalived

修改keepalived的配置

  1. global_defs {
  2. router_id keep_151
  3. }
  4. vrrp_instance VI_1 {
  5. state MASTER
  6. interface ens33
  7. virtual_router_id 41
  8. priority 100
  9. advert_int 1
  10. authentication {
  11. auth_type PASS
  12. auth_pass 1111
  13. }
  14. virtual_ipaddress {
  15. 192.168.1.150
  16. }
  17. }
  18. #配置集群访问的ip+端口,端口和nginx保持一致
  19. virtual_server 192.168.1.150 80{
  20. #健康检查的时间,单位:秒
  21. delay_loop 6
  22. #配置负载均衡的算法,默认的轮询
  23. lb_algo rr
  24. #设置LVS的模式 NAT|TUN|DR
  25. lb-kind DR
  26. #设置会话持久化的时间
  27. persistence_timeout 5
  28. #协议
  29. protocol TCP
  30. #配置负载均衡的真实服务器,也就是nginx节点的具体的ip地址
  31. real_server 192.168.1.171 80{
  32. #轮询权重配比
  33. weight 1
  34. #设置健康检查
  35. TCP_CHECK {
  36. #检查80端口
  37. connect_port 80
  38. #超时时间
  39. connect_timeout 2
  40. #重试次数
  41. nb_get_retry 2
  42. #重试间隔时间
  43. delay_before_retry 3
  44. }
  45. }
  46. real_server 192.168.1.171 80{
  47. weight 1
  48. TCP_CHECK {
  49. connect_port 80
  50. connect_timeout 2
  51. nb_get_retry 2
  52. delay_before_retry 3
  53. }
  54. }
  55. }

启动/重启keepalived

systemctl restart keepalived

使用keepalived配置Backup LVS

配置在备用机上

  1. global_defs {
  2. router_id keep_152
  3. }
  4. vrrp_instance VI_1 {
  5. state BACKUP
  6. interface ens33
  7. virtual_router_id 41
  8. priority 50
  9. advert_int 1
  10. authentication {
  11. auth_type PASS
  12. auth_pass 1111
  13. }
  14. virtual_ipaddress {
  15. 192.168.1.150
  16. }
  17. }
  18. #配置集群访问的ip+端口,端口和nginx保持一致
  19. virtual_server 192.168.1.150 80{
  20. #健康检查的时间,单位:秒
  21. delay_loop 6
  22. #配置负载均衡的算法,默认的轮询
  23. lb_algo rr
  24. #设置LVS的模式 NAT|TUN|DR
  25. lb-kind DR
  26. #设置会话持久化的时间
  27. persistence_timeout 5
  28. #协议
  29. protocol TCP
  30. #配置负载均衡的真实服务器,也就是nginx节点的具体的ip地址
  31. real_server 192.168.1.171 80{
  32. #轮询权重配比
  33. weight 1
  34. #设置健康检查
  35. TCP_CHECK {
  36. #检查80端口
  37. connect_port 80
  38. #超时时间
  39. connect_timeout 2
  40. #重试次数
  41. nb_get_retry 2
  42. #重试间隔时间
  43. delay_before_retry 3
  44. }
  45. }
  46. real_server 192.168.1.171 80{
  47. weight 1
  48. TCP_CHECK {
  49. connect_port 80
  50. connect_timeout 2
  51. nb_get_retry 2
  52. delay_before_retry 3
  53. }
  54. }
  55. }