Nginx

静态代理

Nginx擅长处理静态文件,是非常好的图片、文件服务器。把所有的静态资源的放到nginx上,可以使应用动静分离,性能更好。

HTTP反向代理配置

nginx.conf 配置文件如下: :::tips 注:conf / nginx.conf 是 nginx 的默认配置文件。也可以使用 **nginx -c** 指定配置文件 :::

  1. #运行用户
  2. #user somebody;
  3. #启动进程,通常设置成和cpu的数量相等
  4. worker_processes 1;
  5. #全局错误日志
  6. error_log D:/Tools/nginx-1.10.1/logs/error.log;
  7. error_log D:/Tools/nginx-1.10.1/logs/notice.log notice;
  8. error_log D:/Tools/nginx-1.10.1/logs/info.log info;
  9. #PID文件,记录当前启动的nginx的进程ID
  10. pid D:/Tools/nginx-1.10.1/logs/nginx.pid;
  11. #工作模式及连接数上限
  12. events {
  13. worker_connections 1024; #单个后台worker process进程的最大并发链接数
  14. }
  15. #设定http服务器,利用它的反向代理功能提供负载均衡支持
  16. http {
  17. #设定mime类型(邮件支持类型),类型由mime.types文件定义
  18. include D:/Tools/nginx-1.10.1/conf/mime.types;
  19. default_type application/octet-stream;
  20. #设定日志
  21. log_format main '[$remote_addr] - [$remote_user] [$time_local] "$request" '
  22. '$status $body_bytes_sent "$http_referer" '
  23. '"$http_user_agent" "$http_x_forwarded_for"';
  24. access_log D:/Tools/nginx-1.10.1/logs/access.log main;
  25. rewrite_log on;
  26. #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,
  27. #必须设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,以平衡磁盘与网络I/O处理速度,降低系统的uptime.
  28. sendfile on;
  29. #tcp_nopush on;
  30. #连接超时时间
  31. keepalive_timeout 120;
  32. tcp_nodelay on;
  33. #gzip压缩开关
  34. #gzip on;
  35. #设定实际的服务器列表
  36. upstream zp_server1{
  37. server 127.0.0.1:8089;
  38. }
  39. #HTTP服务器
  40. server {
  41. #监听80端口,80端口是知名端口号,用于HTTP协议
  42. listen 80;
  43. #定义使用www.xx.com访问
  44. server_name www.helloworld.com;
  45. #首页
  46. index index.html
  47. #指向webapp的目录
  48. root D:\01_Workspace\Project\github\zp\SpringNotes\spring-security\spring-shiro\src\main\webapp;
  49. #编码格式
  50. charset utf-8;
  51. #代理配置参数
  52. proxy_connect_timeout 180;
  53. proxy_send_timeout 180;
  54. proxy_read_timeout 180;
  55. proxy_set_header Host $host;
  56. proxy_set_header X-Forwarder-For $remote_addr;
  57. #反向代理的路径(和upstream绑定),location 后面设置映射的路径
  58. location / {
  59. proxy_pass http://zp_server1;
  60. }
  61. #静态文件,nginx自己处理
  62. location ~ ^/(images|javascript|js|css|flash|media|static)/ {
  63. root D:\01_Workspace\Project\github\zp\SpringNotes\spring-security\spring-shiro\src\main\webapp\views;
  64. #过期30天,静态文件不怎么更新,过期可以设大一点,如果频繁更新,则可以设置得小一点。
  65. expires 30d;
  66. }
  67. #设定查看Nginx状态的地址
  68. location /NginxStatus {
  69. stub_status on;
  70. access_log on;
  71. auth_basic "NginxStatus";
  72. auth_basic_user_file conf/htpasswd;
  73. }
  74. #禁止访问 .htxxx 文件
  75. location ~ /\.ht {
  76. deny all;
  77. }
  78. #错误处理页面(可选择性配置)
  79. #error_page 404 /404.html;
  80. #error_page 500 502 503 504 /50x.html;
  81. #location = /50x.html {
  82. # root html;
  83. #}
  84. }
  85. }
  1. 启动 webapp,注意启动绑定的端口要和 nginx 中的 upstream 设置的端口保持一致。
  2. 更改 host:在 C:\Windows\System32\drivers\etc 目录下的 host 文件中添加一条 DNS 记录

    1. 127.0.0.1 www.helloworld.com
  3. 启动 startup.bat 的脚本命令 ```powershell @echo off rem 如果启动前已经启动nginx并记录下pid文件,会kill指定进程 nginx.exe -s stop

rem 测试配置文件语法正确性 nginx.exe -t -c conf/nginx.conf

rem 显示版本信息 nginx.exe -v

rem 按照指定配置去启动nginx nginx.exe -c conf/nginx.conf

  1. 4. 在浏览器中访问 www.helloworld.com,不出意外,已经可以访问了。
  2. <a name="M79Jj"></a>
  3. ## 负载均衡配置
  4. Nginx通过反向代理可以实现服务的负载均衡,避免了服务器单节点故障,把请求按照一定的策略转发到不同的服务器上,达到负载的效果。<br />![](https://cdn.nlark.com/yuque/0/2021/webp/396745/1617946022575-bce63015-e96f-434f-829d-b2589ff374b5.webp#height=424&id=JBl7q&originHeight=424&originWidth=640&originalType=binary&ratio=1&size=0&status=done&style=none&width=640)<br />网站在实际运营过程中,多半都是有多台服务器运行着同样的 app,这时需要使用负载均衡来分流。<br />nginx 也可以实现简单的负载均衡功能。<br />假设这样一个应用场景:将应用部署在 192.168.1.11:80、192.168.1.12:80、192.168.1.13:80 三台 linux 环境的服务器上。网站域名叫 www.helloworld.com,公网 IP 为 192.168.1.11。在公网 IP 所在的服务器上部署 nginx,对所有请求做负载均衡处理。<br />nginx.conf 配置如下:
  5. ```nginx
  6. http {
  7. #设定mime类型,类型由mime.type文件定义
  8. include /etc/nginx/mime.types;
  9. default_type application/octet-stream;
  10. #设定日志格式
  11. access_log /var/log/nginx/access.log;
  12. #设定负载均衡的服务器列表
  13. upstream load_balance_server {
  14. #weigth参数表示权值,权值越高被分配到的几率越大
  15. server 192.168.1.11:80 weight=5;
  16. server 192.168.1.12:80 weight=1;
  17. server 192.168.1.13:80 weight=6;
  18. }
  19. #HTTP服务器
  20. server {
  21. #侦听80端口
  22. listen 80;
  23. #定义使用www.xx.com访问
  24. server_name www.helloworld.com;
  25. #对所有请求进行负载均衡请求
  26. location / {
  27. root /root; #定义服务器的默认网站根目录位置
  28. index index.html index.htm; #定义首页索引文件的名称
  29. proxy_pass http://load_balance_server ;#请求转向load_balance_server 定义的服务器列表
  30. #以下是一些反向代理的配置(可选择性配置)
  31. #proxy_redirect off;
  32. proxy_set_header Host $host;
  33. proxy_set_header X-Real-IP $remote_addr;
  34. #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
  35. proxy_set_header X-Forwarded-For $remote_addr;
  36. proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)
  37. proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)
  38. proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)
  39. proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
  40. proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的话,这样设置
  41. proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
  42. proxy_temp_file_write_size 64k; #设定缓存文件夹大小,大于这个值,将从upstream服务器传
  43. client_max_body_size 10m; #允许客户端请求的最大单文件字节数
  44. client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数
  45. }
  46. }
  47. }

负载均衡策略

Nginx 提供了多种负载均衡策略

轮询

将请求按顺序轮流地分配到后端服务器上,它均衡地对待后端的每一台服务器,而不关心服务器实际的连接数和当前的系统负载。

  1. upstream bck_testing_01 {
  2. # 默认所有服务器权重为 1
  3. server 192.168.250.220:8080
  4. server 192.168.250.221:8080
  5. server 192.168.250.222:8080
  6. }

加权轮询

不同的后端服务器可能机器的配置和当前系统的负载并不相同,因此它们的抗压能力也不相同。给配置高、负载低的机器配置更高的权重,让其处理更多的请;而配置低、负载高的机器,给其分配较低的权重,降低其系统负载,加权轮询能很好地处理这一问题,并将请求顺序且按照权重分配到后端。

  1. upstream bck_testing_01 {
  2. server 192.168.250.220:8080 weight=3
  3. server 192.168.250.221:8080 # default weight=1
  4. server 192.168.250.222:8080 # default weight=1
  5. }

最少连接

由于后端服务器的配置不尽相同,对于请求的处理有快有慢,最小连接数法根据后端服务器当前的连接情况,动态地选取其中当前积压连接数最少的一台服务器来处理当前的请求,尽可能地提高后端服务的利用效率,将负责合理地分流到每一台服务器。

  1. upstream bck_testing_01 {
  2. least_conn;
  3. # with default weight for all (weight=1)
  4. server 192.168.250.220:8080
  5. server 192.168.250.221:8080
  6. server 192.168.250.222:8080
  7. }

加权最少连接

  1. upstream bck_testing_01 {
  2. least_conn;
  3. server 192.168.250.220:8080 weight=3
  4. server 192.168.250.221:8080 # default weight=1
  5. server 192.168.250.222:8080 # default weight=1
  6. }

IP Hash

根据获取客户端的IP地址,通过哈希函数计算得到一个数值,用该数值对服务器列表的大小进行取模运算,得到的结果便是客户端要访问服务器的序号。采用源地址哈希法进行负载均衡,同一IP地址的客户端,当后端服务器列表不变时,它每次都会映射到同一台后端服务器进行访问。

  1. upstream bck_testing_01 {
  2. ip_hash;
  3. # with default weight for all (weight=1)
  4. server 192.168.250.220:8080
  5. server 192.168.250.221:8080
  6. server 192.168.250.222:8080
  7. }

普通 Hash

  1. upstream bck_testing_01 {
  2. hash $request_uri;
  3. # with default weight for all (weight=1)
  4. server 192.168.250.220:8080
  5. server 192.168.250.221:8080
  6. server 192.168.250.222:8080
  7. }

随机

通过系统的随机算法,根据后端服务器的列表大小值来随机选取其中的一台服务器进行访问。

网站有多个 webapp 的配置

当一个网站功能越来越丰富时,往往需要将一些功能相对独立的模块剥离出来,独立维护。这样的话,通常,会有多个 webapp。
举个例子:假如 www.helloworld.com 站点有好几个 webapp,finance(金融)、product(产品)、admin(用户中心)。访问这些应用的方式通过上下文(context)来进行区分:
www.helloworld.com/finance/
www.helloworld.com/product/
www.helloworld.com/admin/
http 的默认端口号是 80,如果在一台服务器上同时启动这 3 个 webapp 应用,都用 80 端口,肯定是不成的。所以,这三个应用需要分别绑定不同的端口号。
那么,问题来了,用户在实际访问 www.helloworld.com 站点时,访问不同 webapp,总不会还带着对应的端口号去访问吧。所以需要用到反向代理来做处理。

  1. http {
  2. #此处省略一些基本配置
  3. upstream product_server{
  4. server www.helloworld.com:8081;
  5. }
  6. upstream admin_server{
  7. server www.helloworld.com:8082;
  8. }
  9. upstream finance_server{
  10. server www.helloworld.com:8083;
  11. }
  12. server {
  13. #此处省略一些基本配置
  14. #默认指向product的server
  15. location / {
  16. proxy_pass http://product_server;
  17. }
  18. location /product/{
  19. proxy_pass http://product_server;
  20. }
  21. location /admin/ {
  22. proxy_pass http://admin_server;
  23. }
  24. location /finance/ {
  25. proxy_pass http://finance_server;
  26. }
  27. }
  28. }

HTTPS 反向代理配置

一些对安全性要求比较高的站点,可能会使用 HTTPS(一种使用 ssl 通信标准的安全 HTTP 协议)。
这里不科普 HTTP 协议和 SSL 标准。但是,使用 nginx 配置 https 需要知道几点:

  • HTTPS 的固定端口号是 443,不同于 HTTP 的 80 端口
  • SSL 标准需要引入安全证书,所以在 nginx.conf 中需要指定证书和它对应的 key

其他和 HTTP 反向代理基本一样,只是在 Server 部分配置有些不同。

  1. #HTTP服务器
  2. server {
  3. #监听443端口。443为知名端口号,主要用于HTTPS协议
  4. listen 443 ssl;
  5. #定义使用www.xx.com访问
  6. server_name www.helloworld.com;
  7. #ssl证书文件位置(常见证书文件格式为:crt/pem)
  8. ssl_certificate cert.pem;
  9. #ssl证书key位置
  10. ssl_certificate_key cert.key;
  11. #ssl配置参数(选择性配置)
  12. ssl_session_cache shared:SSL:1m;
  13. ssl_session_timeout 5m;
  14. #数字签名,此处使用MD5
  15. ssl_ciphers HIGH:!aNULL:!MD5;
  16. ssl_prefer_server_ciphers on;
  17. location / {
  18. root /root;
  19. index index.html index.htm;
  20. }
  21. }

静态站点配置

有时候需要配置静态站点(即 html 文件和一堆静态资源)。
举例来说:如果所有的静态资源都放在了 /app/dist 目录下,只需要在 nginx.conf 中指定首页以及这个站点的 host 即可。
配置如下:

  1. worker_processes 1;
  2. events {
  3. worker_connections 1024;
  4. }
  5. http {
  6. include mime.types;
  7. default_type application/octet-stream;
  8. sendfile on;
  9. keepalive_timeout 65;
  10. gzip on;
  11. gzip_types text/plain application/x-javascript text/css application/xml text/javascript application/javascript image/jpeg image/gif image/png;
  12. gzip_vary on;
  13. server {
  14. listen 80;
  15. server_name static.zp.cn;
  16. location / {
  17. root /app/dist;
  18. index index.html;
  19. #转发任何请求到 index.html
  20. }
  21. }
  22. }

然后,添加 HOST:
127.0.0.1 static.zp.cn
此时,在本地浏览器访问 static.zp.cn ,就可以访问静态站点了。

搭建文件服务器

有时候,团队需要归档一些数据或资料,那么文件服务器必不可少。使用 Nginx 可以非常快速便捷的搭建一个简易的文件服务。
Nginx 中的配置要点:

  • 将 autoindex 开启可以显示目录,默认不开启。
  • 将 autoindex_exact_size 开启可以显示文件的大小。
  • 将 autoindex_localtime 开启可以显示文件的修改时间。
  • root 用来设置开放为文件服务的根路径。
  • charset 设置为 charset utf-8,gbk;,可以避免中文乱码问题(windows 服务器下设置后,依然乱码,暂时没有找到解决方法)。

一个最简化的配置如下:

  1. autoindex on;# 显示目录
  2. autoindex_exact_size on;# 显示文件大小
  3. autoindex_localtime on;# 显示文件时间
  4. server {
  5. charset utf-8,gbk; # windows 服务器下设置后,依然乱码,暂时无解
  6. listen 9050 default_server;
  7. listen [::]:9050 default_server;
  8. server_name _;
  9. root /share/fs;
  10. }

跨域解决方案

web 领域开发中,经常采用前后端分离模式。这种模式下,前端和后端分别是独立的 web 应用程序,例如:后端是 Java 程序,前端是 React 或 Vue 应用。
各自独立的 web app 在互相访问时,势必存在跨域问题。解决跨域问题一般有两种思路:

CORS

在后端服务器设置 HTTP 响应头,把需要运行访问的域名加入加入 Access-Control-Allow-Origin 中。

jsonp

把后端根据请求,构造 json 数据,并返回,前端用 jsonp 跨域。
需要说明的是,nginx 根据第一种思路,也提供了一种解决跨域的解决方案。
举例:www.helloworld.com 网站是由一个前端 app ,一个后端 app 组成的。前端端口号为 9000, 后端端口号为 8080。
前端和后端如果使用 http 进行交互时,请求会被拒绝,因为存在跨域问题。来看看,nginx 是怎么解决的吧:
首先,在 enable-cors.conf 文件中设置 cors :

  1. # allow origin list
  2. set $ACAO '*';
  3. # set single origin
  4. if ($http_origin ~* (www.helloworld.com)$) {
  5. set $ACAO $http_origin;
  6. }
  7. if ($cors = "trueget") {
  8. add_header 'Access-Control-Allow-Origin' "$http_origin";
  9. add_header 'Access-Control-Allow-Credentials' 'true';
  10. add_header 'Access-Control-Allow-Methods' 'GET, POST, OPTIONS';
  11. add_header 'Access-Control-Allow-Headers' 'DNT,X-Mx-ReqToken,Keep-Alive,User-Agent,X-Requested-With,If-Modified-Since,Cache-Control,Content-Type';
  12. }
  13. if ($request_method = 'OPTIONS') {
  14. set $cors "${cors}options";
  15. }
  16. if ($request_method = 'GET') {
  17. set $cors "${cors}get";
  18. }
  19. if ($request_method = 'POST') {
  20. set $cors "${cors}post";
  21. }

接下来,在服务器中 include enable-cors.conf 来引入跨域配置:

  1. # ----------------------------------------------------
  2. # 此文件为项目 nginx 配置片段
  3. # 可以直接在 nginx config 中 include(推荐)
  4. # 或者 copy 到现有 nginx 中,自行配置
  5. # www.helloworld.com 域名需配合 dns hosts 进行配置
  6. # 其中,api 开启了 cors,需配合本目录下另一份配置文件
  7. # ----------------------------------------------------
  8. upstream front_server{
  9. server www.helloworld.com:9000;
  10. }
  11. upstream api_server{
  12. server www.helloworld.com:8080;
  13. }
  14. server {
  15. listen 80;
  16. server_name www.helloworld.com;
  17. location ~ ^/api/ {
  18. include enable-cors.conf;
  19. proxy_pass http://api_server;
  20. rewrite "^/api/(.*)$" /$1 break;
  21. }
  22. location ~ ^/ {
  23. proxy_pass http://front_server;
  24. }
  25. }

限流

Nginx的限流模块,是基于漏桶算法实现的,在高并发的场景下非常实用。
640.webp

1、配置参数

limit_req_zone定义在http块中,$binary_remote_addr 表示保存客户端IP地址的二进制形式。
Zone定义IP状态及URL访问频率的共享内存区域。zone=keyword标识区域的名字,以及冒号后面跟区域大小。16000个IP地址的状态信息约1MB,所以示例中区域可以存储160000个IP地址。
Rate定义最大请求速率。示例中速率不能超过每秒100个请求。

2、设置限流

burst排队大小,nodelay不限制单个请求间的时间。

缓存

1、浏览器缓存,静态资源缓存用expire

640.webp

2、代理层缓存

640.webp

黑白名单

1、不限流白名单

640.webp

2、黑名单

640.webp