Nginx基本概念

  1. 正向代理
  2. 反向代理
  3. 负载均衡
  4. 动静分离

配置高可用

  1. 服务器至少2台
  2. 服务上都安装nginx、keeplived
  3. yum install keepalived -y
  4. 修复配置文件/etc/keepalived/keepalived.conf
  5. systemctl start keepalived.service
  6. ps -ef | grep keep

image.png

  1. # 修改/etc/keepalived/keepalivec.conf 配置文件
  2. global_defs {
  3. notification_email {
  4. acassen@firewall.loc
  5. failover@firewall.loc
  6. sysadmin@firewall.loc
  7. }
  8. notification_email_from Alexandre.Cassen@firewall.loc
  9. smtp_server 192.168.17.129
  10. smtp_connect_timeout 30
  11. router_id LVS_DEVEL #访问的主机名
  12. }
  13. vrrp_script chk_http_port {
  14. script "/usr/local/src/nginx_check.sh"
  15. interval 2 #(检测脚本执行的间隔)单位秒
  16. weight 2 #权重
  17. }
  18. vrrp_instance VI_1 {
  19. state MASTER # 备份服务器上将 MASTER 改为 BACKUP
  20. interface enp0s8 # 绑定的网卡
  21. virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
  22. priority 100 # 主、备机取不同的优先级,主机值较大,备份机值较小
  23. advert_int 1 # 每隔1秒发送一个心跳
  24. authentication {
  25. auth_type PASS #权限检验方式,使用密码
  26. auth_pass 1111 #密码
  27. }
  28. virtual_ipaddress {
  29. 192.168.55.55 # VRRP H 虚拟地址
  30. }
  31. }
  1. # 添加检测脚本/usr/local/src/nginx_check.sh
  2. #!/bin/bash
  3. A=`ps -C nginx --no-header |wc -l`
  4. if [ $A -eq 0 ];then
  5. /usr/local/nginx/sbin/nginx
  6. sleep 2
  7. if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
  8. killall keepalived
  9. fi
  10. fi

负载均衡配置与参数解析

通过proxy_pass 可以把请求代理至后端服务,但是为了实现更高的负载及性能, 我们的后端服务通常是多个, 这个是时候可以通过upstream 模块实现负载均衡。

演示upstream 的实现。

  1. upstream backend {
  2. server 127.0.0.1:8010 weight=1;
  3. server 127.0.0.1:8080 weight=2;
  4. }
  5. location / {
  6. proxy_pass http://backend;
  7. }

upstream 相关参数:

  • service: 反向服务地址 加端口
  • weight: 权重
  • max_fails: 失败多少次 认为主机已挂掉则,踢出
  • fail_timeout: 踢出后重新探测时间
  • backup: 备用服务
  • max_conns: 允许最大连接数
  • slow_start: 当节点恢复,不立即加入,而是等待 slow_start 后加入服务对列。

upstream 负载均衡算法介绍

  • ll+weight: 轮询加权重 (默认)
  • ip_hash : 基于Hash 计算 ,用于保持session 一至性
  • url_hash: 静态资源缓存,节约存储,加快速度(第三方)
  • least_conn :最少链接(第三方)
  • least_time :最小的响应时间,计算节点平均响应时间,然后取响应最快的那个,分配更高权重(第三方)

Nginx最大并发数?

  1. 普通的静态访问最大并发数 worker_connections * worker_processes / 4
  2. HTTP作为反向代理 worker_connections * worker_processes / 2

Nginx 性能参数调优

worker_processes number;

每个worker进程都是单线程的进程,它们会调用各个模块以实现多种多样的功能。如果这些模块确认不会出现阻塞式的调用,那么,有多少CPU内核就应该配置多少个进程;反之,如果有可能出现阻塞式调用,那么需要配置稍多一些的worker进程。例如,如果业务方面会致使用户请求大量读取本地磁盘上的静态资源文件,而且服务器上的内存较小,以至于大部分的请求访问静态资源文件时都必须读取磁盘(磁头的寻址是缓慢的),而不是内存中的磁盘缓存,那么磁盘I/O调用可能会阻塞住worker进程少量时间,进而导致服务整体性能下降。

每个worker 进程的最大连接数

  • 语法:worker_connections number;
  • 默认:worker_connections 1024
  • worker_cpu_affinity cpumask[cpumask……]
  • 绑定Nginx worker进程到指定的CPU内核

为什么要绑定worker进程到指定的CPU内核呢?假定每一个worker进程都是非常繁忙的,如果多个worker进程都在抢同一个CPU,那么这就会出现同步问题。反之,如果每一个worker进程都独享一个CPU,就在内核的调度策略上实现了完全的并发。

例如,如果有4颗CPU内核,就可以进行如下配置:

  1. worker_processes 4;
  2. worker_cpu_affinity 1000 0100 0010 0001;
  3. 注意 worker_cpu_affinity配置仅对Linux操作系统有效。

Nginx worker 进程优先级设置

  • 语法:worker_priority nice;
  • 默认:worker_priority 0;

优先级由静态优先级和内核根据进程执行情况所做的动态调整(目前只有±5的调整)共同决定。nice值是进程的静态优先级,它的取值范围是–20~+19,–20是最高优先级,+19是最低优先级。因此,如果用户希望Nginx占有更多的系统资源,那么可以把nice值配置得更小一些,但不建议比内核进程的nice值(通常为–5)还要小

Nginx worker进程可以打开的最大句柄描述符个数

  • 语法: worker_rlimit_nofile limit;
  • 默认:空

更改worker进程的最大打开文件数限制。如果没设置的话,这个值为操作系统的限制。设置后你的操作系统和Nginx可以处理比“ulimit -a”更多的文件,所以把这个值设高,这样nginx就不会有“too many open files”问题了。

是否打开accept锁

  • 语法:accept_mutex[on|off]
  • 默认:accept_mutext on;

accept_mutex是Nginx的负载均衡锁,当某一个worker进程建立的连接数量达到worker_connections配置的最大连接数的7/8时,会大大地减小该worker进程试图建立新TCP连接的机会,accept锁默认是打开的,如果关闭它,那么建立TCP连接的耗时会更短,但worker进程之间的负载会非常不均衡,因此不建议关闭它。

使用accept锁后到真正建立连接之间的延迟时间

  • 语法:accept_mutex_delay Nms;
  • 默认:accept_mutex_delay 500ms;

在使用accept锁后,同一时间只有一个worker进程能够取到accept锁。这个accept锁不是堵塞锁,如果取不到会立刻返回。如果只有一个worker进程试图取锁而没有取到,他至少要等待accept_mutex_delay定义的时间才能再次试图取锁。

正向代理时序图

Nginx介绍阶段 - 图2

反向代理时序图

Nginx介绍阶段 - 图3

动静分离时序图

Nginx介绍阶段 - 图4