虚拟机:VirtualBox
- virtaulbox host-only的IP地址:192.168.137.1
- 所用系统:CentOS7
- 真实web服务器(RS1):192.168.137.5
- 真实web服务器(RS2):192.168.137.6
- Master负载均衡服务器:192.168.137.101
- backup负载均衡服务器:192.168.137.102
- 系统对外虚拟IP:192.168.137.100

二、RS的配置过程
两台RS所用Web服务器均为nginx
2.1 静态IP设置
(1)编辑配置文件

$ vim /etc/sysconfig/network-scripts/ifcfg-enp0s3
我这里叫enp0s3,也可能是其他名字,只是一个网卡代号而已

需要修改如下内容
BOOTPROTO=static(使用静态IP)
ONBOOT=yes(开机启动)
需要新增如下内容
IPADDR=192.168.137.5
NETMASK=255.255.255.0
GATEWAY=192.168.137.1
DNS1=192.168.137.1
(2)重启网络服务

$ service network restart
2.2 nginx的安装与部署
(1)下载nginx的安装包,我用的是nginx-1.10.1,放在/opt目录
(2)安装必备工具

$ yum -y install gcc gcc-c++ autoconf automake
$ yum -y install zlib zlib-devel openssl openssl-devel pcre-devel
说明:
pcre: 用来作地址重写的功能。
zlib:nginx 的gzip模块,传输数据打包,省流量(但消耗资源)。
openssl:提供ssl加密协议。

(3)安装nginx

$ cd /opt
$ tar -zxvf nginx-1.10.1.tar.gz
$cd nginx-1.10.1
$ ./configure –prefix=/usr/local/nginx
$ make
$ make install
(4)修改nginx默认访问页面内容

$ vim /usr/local/nginx/html/index.html
把内容修改为RS1,为了方便一会测试负载均衡时,能清晰看到是哪台服务器

(5)开放80端口

$ /sbin/iptables -I INPUT -p tcp –dport 80 -j ACCEPT
现在,访问192.168.137.5就可以看到显示RS1了,同理设置RS2
三、负载均衡服务器配置
CentOS7已经集成了LVS的核心,所以只需要安装LVS的管理工具就可以了
(1)安装ipvsadm

$ yum -y install ipvsadm
(2)设置ipv4转发

$ sysctl -w net.ipv4.ip_forward=1
(3)关闭防火墙

iptables -F

(4)设置ipvsadm

$ ipvsadm -A -t 192.168.137.101:80 -s rr
$ ipvsadm -a -t 192.168.137.101:80 -r 192.168.137.5 -m
$ ipvsadm -a -t 192.168.137.101:80 -r 192.168.137.6 -m
$ ipvsadm -S
-A 添加虚拟服务

-a 添加一个真是的主机到虚拟服务

-S 保存

-s 选择调度方法

rr 轮训调度

-m 网络地址转换NAT

(5)测试

curl 192.168.137.101
004-部署nginx&搭建LVS+keepalived负载均衡 - 图1

三、Keepalived的安装配置过程
两台负载均衡服务器上均需要安装、配置Keepalived

3.1 安装Keepalived
$ yum -y install keepalived
3.2 配置Keepalived
$ vim /etc/keepalived/keepalived.conf
配置信息如下
! Configuration File for keepalived

global_defs {
notification_email {
acassen@firewall.loc #设置报警邮件地址,可以设置多个,每行一个。
failover@firewall.loc #需开启本机的sendmail服务
sysadmin@firewall.loc
}
notification_email_from Alexandre.Cassen@firewall.loc #设置邮件的发送地址
smtp_server 127.0.0.1 #设置smtp server地址
smtp_connect_timeout 30 #设置连接smtp server的超时时间
router_id LVS_DEVEL #表示运行keepalived服务器的一个标识。发邮件时显示在邮件主题的信息
}

vrrp_instance VI_1 {
state MASTER #指定keepalived的角色,MASTER表示此主机是主服务器,BACKUP表示此主机是备用服务器
interface enp0s3 #指定HA监测网络的接口
virtual_router_id 51 #虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。即同一vrrp_instance下,MASTER和BACKUP必须是一致的
priority 100 #定义优先级,数字越大,优先级越高,在同一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级
advert_int 1 #设定MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒
authentication { #设置验证类型和密码
auth_type PASS #设置验证类型,主要有PASS和AH两种
auth_pass 1111 #设置验证密码,在同一个vrrp_instance下,MASTER与BACKUP必须使用相同的密码才能正常通信
}
virtual_ipaddress { #设置虚拟IP地址,可以设置多个虚拟IP地址,每行一个
192.168.137.100
}
}

virtual_server 192.168.137.100 80 { #设置虚拟服务器,需要指定虚拟IP地址和服务端口,IP与端口之间用空格隔开
delay_loop 6 #设置运行情况检查时间,单位是秒
lb_algo rr #设置负载调度算法,这里设置为rr,即轮询算法
lb_kind DR #设置LVS实现负载均衡的机制,有NAT、TUN、DR三个模式可选
nat_mask 255.255.255.0
persistence_timeout 0 #会话保持时间,单位是秒。这个选项对动态网页是非常有用的,为集群系统中的session共享提供了一个很好的解决方案。
#有了这个会话保持功能,用户的请求会被一直分发到某个服务节点,直到超过这个会话的保持时间。
#需要注意的是,这个会话保持时间是最大无响应超时时间,也就是说,用户在操作动态页面时,如果50秒内没有执行任何操作
#那么接下来的操作会被分发到另外的节点,但是如果用户一直在操作动态页面,则不受50秒的时间限制
protocol TCP #指定转发协议类型,有TCP和UDP两种

real_server 192.168.137.5 80 { #配置服务节点1,需要指定real server的真实IP地址和端口,IP与端口之间用空格隔开
weight 1 #配置服务节点的权值,权值大小用数字表示,数字越大,权值越高,设置权值大小可以为不同性能的服务器
#分配不同的负载,可以为性能高的服务器设置较高的权值,而为性能较低的服务器设置相对较低的权值,这样才能合理地利用和分配系统资源
TCP_CHECK { #realserver的状态检测设置部分,单位是秒
connect_timeout 3 #表示3秒无响应超时
nb_get_retry 3 #表示重试次数
delay_before_retry 3 #表示重试间隔
connect_port 8066
}
}
real_server 192.168.137.6 80 {
weight 1
TCP_CHECK {
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
connect_port 8066
}
}
}

要注意的地方:

  • interface enp0s3:这里的enp0s3是我的网卡名称,想要查看自己网卡名称的话,在/etc/sysconfig/network-scripts/ifcfg-e(敲下TAB)
  • persistence_timeout 0:指的是在一定的时间内来自同一IP的连接将会被转发到同一realserver中。而不是严格意义上的轮询。默认为50s,因此在测试负载均衡是否可以正常轮询时,最好先把值设置为0,方便查看
  • TCP_CHECK { :注意TCK_CHECK和 {之间有一个空格,忘记打这个空格的话,可能会出现后面用ipvsadm查看时,某个RS查看不到

另外一个台备用服务器上Keepavlied的配置类似,只是把MASTER改为backup,把priority设置为比MASTER低

3.3 两台RS上为lo:0绑定VIP地址、抑制ARP广播
在两台RS上编写以下脚本文件realserver.sh

!/bin/bash
#description: Config realserver

VIP=192.168.137.100

/etc/rc.d/init.d/functions

case “$1” in
start)
/sbin/ifconfig lo:0 $VIP netmask 255.255.255.255 broadcast $VIP
/sbin/route add -host $VIP dev lo:0
echo “1” >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo “2” >/proc/sys/net/ipv4/conf/lo/arp_announce
echo “1” >/proc/sys/net/ipv4/conf/all/arp_ignore
echo “2” >/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p >/dev/null 2>&1
echo “RealServer Start OK”
;;
stop)
/sbin/ifconfig lo:0 down
/sbin/route del $VIP >/dev/null 2>&1
echo “0” >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo “0” >/proc/sys/net/ipv4/conf/lo/arp_announce
echo “0” >/proc/sys/net/ipv4/conf/all/arp_ignore
echo “0” >/proc/sys/net/ipv4/conf/all/arp_announce
echo “RealServer Stoped”
;;
*)
echo “Usage: $0 {start|stop}”
exit 1
esac

exit 0

在两台RS上分别执行脚本

$ sh realserver.sh start
3.4 启用Keepavlied
$ service keepalived start
之后通过ipvsadm -L命令可以查看VIP是否已经成功映射到两台RS,如果发现有问题,
可以通过/var/log/message查看错误原因
004-部署nginx&搭建LVS+keepalived负载均衡 - 图2
接下来就可以测试可用性了
3.4.1 测试负载均衡
004-部署nginx&搭建LVS+keepalived负载均衡 - 图3
3.4.2测试keepalived的监控检测
停掉RS1的nginx,然后在MASTER负载均衡服务器上可以到看VIP映射关系中已经剔除了192.168.137.5
(1)停掉RS1的nginx
004-部署nginx&搭建LVS+keepalived负载均衡 - 图4

(2)查看VIP映射关系
004-部署nginx&搭建LVS+keepalived负载均衡 - 图5

四、nginx+lua部署——————————- ——————————- ——————————- ——————————- ——————————- ——————————- ——————————- ——————————- ——————————- ——————————- ——————————-
(1)部署openresty
OpenResty (也称为 ngx_openresty)是一个全功能的 Web 应用服务器。它打包了标准的 Nginx 核心,很多的常用的第三方模块,以及它们的大多数依赖项。http://openresty.org/cn/index.html

mkdir -p /usr/servers
cd /usr/servers/

yum install -y readline-devel pcre-devel openssl-devel gcc

wget http://openresty.org/download/ngx_openresty-1.7.7.2.tar.gz
tar -xzvf ngx_openresty-1.7.7.2.tar.gz
cd /usr/servers/ngx_openresty-1.7.7.2/

cd bundle/LuaJIT-2.1-20150120/
make clean && make && make install
ln -sf luajit-2.1.0-alpha /usr/local/bin/luajit

cd bundle
wget https://github.com/FRiCKLE/ngx_cache_purge/archive/2.3.tar.gz
tar -xvf 2.3.tar.gz

cd bundle
wget https://github.com/yaoweibin/nginx_upstream_check_module/archive/v0.3.0.tar.gz
tar -xvf v0.3.0.tar.gz

cd /usr/servers/ngx_openresty-1.7.7.2
./configure —prefix=/usr/servers —with-http_realip_module —with-pcre —with-luajit —add-module=./bundle/ngx_cache_purge-2.3/ —add-module=./bundle/nginx_upstream_check_module-0.3.0/ -j2
make && make install

cd /usr/servers/
ll

/usr/servers/luajit
/usr/servers/lualib
/usr/servers/nginx
/usr/servers/nginx/sbin/nginx -V

启动nginx: /usr/servers/nginx/sbin/nginx

(2)nginx+lua开发的hello world

vi /usr/servers/nginx/conf/nginx.conf

在http部分添加:

lua_package_path “/usr/servers/lualib/?.lua;;”;
lua_package_cpath “/usr/servers/lualib/?.so;;”;

/usr/servers/nginx/conf下,创建一个lua.conf

server {
listen 80;
servername ;
}

在nginx.conf的http部分添加:

include lua.conf;

验证配置是否正确:

/usr/servers/nginx/sbin/nginx -t

在lua.conf的server部分添加:

location /lua {
default_type ‘text/html’;
content_by_lua ‘ngx.say(“hello world”)’;
}

/usr/servers/nginx/sbin/nginx -t

重新nginx加载配置

/usr/servers/nginx/sbin/nginx -s reload

访问http: http://192.168.31.187/lua

vi /usr/servers/nginx/conf/lua/test.lua

ngx.say(“hello world”);

修改lua.conf

location /lua {
default_type ‘text/html’;
content_by_lua_file conf/lua/test.lua;
}

查看异常日志

tail -f /usr/servers/nginx/logs/error.log

(3)工程化的nginx+lua项目结构

项目工程结构

hello
hello.conf
lua
hello.lua
lualib
.lua
.so

放在/usr/hello目录下

/usr/servers/nginx/conf/nginx.conf

worker_processes 2;

error_log logs/error.log;

events {
worker_connections 1024;
}

http {
include mime.types;
default_type text/html;
lua_package_path “/usr/hello/lualib/?.lua;;”;
lua_package_cpath “/usr/hello/lualib/?.so;;”;
include /usr/hello/hello.conf;
}

/usr/hello/hello.conf

server {
listen 80;
servername ;
location /lua {
default_type ‘text/html’;
lua_code_cache off;
content_by_lua_file /usr/example/lua/test.lua;
}
}