- 前言">前言
 - Nginx 概述">Nginx 概述
 - Nginx 特点">Nginx 特点
 - Nginx 作用">Nginx 作用
 - Nginx 安装">Nginx 安装
 - Nginx 常用命令">Nginx 常用命令
 - Nginx 核心配置">Nginx 核心配置
- 配置文件结构">配置文件结构
- user">user
 - pid">pid
 - worker_rlimit_nofile_number">worker_rlimit_nofile_number
 - worker_rlimit_core">worker_rlimit_core
 - worker_processes_number">worker_processes_number
 - worker_cpu_affinity">worker_cpu_affinity
 - worker_priority">worker_priority
 - worker_shutdown_timeout">worker_shutdown_timeout
 - timer_resolution">timer_resolution
 - daemon">daemon
 
 - 配置文件 events 段核心参数">配置文件 events 段核心参数
 - server_name 指令">server_name 指令
 - root">root
 - alias">alias
 - location">location
 - if 指令">if 指令
 - autoindex">autoindex
 - 变量">变量
 
 - 配置文件结构">配置文件结构
 - Nginx 应用核心概念">Nginx 应用核心概念
 - Nginx 实战配置">Nginx 实战配置
 - /usr/share/nginx/html/proxy/index.html
121.42.11.34 proxy html
 - —— 以上两个参数开启就可以支持Gzip压缩了 ——
 - 默认 off,该模块启用后,Nginx 首先检查是否存在请求静态文件的 gz 结尾的文件,如果有则直接返回该 .gz 文件内容;
gzip_static on; - 默认 off,nginx做为反向代理时启用,用于设置启用或禁用从代理服务器上收到相应内容 gzip 压缩;
gzip_proxied any; - 用于在响应消息头中添加 Vary:Accept-Encoding,使代理服务器根据请求头中的 Accept-Encoding 识别是否启用 gzip 压缩;
gzip_vary on; - gzip 压缩比,压缩级别是 1-9,1 压缩级别最低,9 最高,级别越高压缩率越大,压缩时间越长,建议 4-6;
gzip_comp_level 6; - 获取多少内存用于缓存压缩结果,16 8k 表示以 8k*16 为单位获得;
gzip_buffers 16 8k; - 允许压缩的页面最小字节数,页面字节数从header头中的 Content-Length 中进行获取。默认值是 0,不管页面多大都压缩。建议设置成大于 1k 的字节数,小于 1k 可能会越压越大;
# gzip_min_length 1k; - 默认 1.1,启用 gzip 所需的 HTTP 最低版本;
gzip_http_version 1.1; - Nginx 架构">Nginx 架构
 - 总结">总结
 
前言
作为一名前端开发人员,你是不是经常碰到领导让你上服务器去修改Nginx配置,然而你会以“我是前端,这个我不会”为理由搪塞过去呢!今天就让我们一起告别这种尴尬,向“真正”的程序员迈进!!!
如果本文对你有所帮助,请点个👍 👍 👍 吧!
Nginx 概述

Nginx是开源、高性能、高可靠的Web和反向代理服务器,而且支持热部署,几乎可以做到 7 * 24 小时不间断运行,即使运行几个月也不需要重新启动,还能在不间断服务的情况下对软件版本进行热更新。性能是Nginx最重要的考量,其占用内存少、并发能力强、能支持高达 5w 个并发连接数,最重要的是,Nginx是免费的并可以商业化,配置使用也比较简单。
Nginx 特点
- 高并发、高性能;
 - 模块化架构使得它的扩展性非常好;
 - 异步非阻塞的事件驱动模型这点和Node.js相似;
 - 相对于其它服务器来说它可以连续几个月甚至更长而不需要重启服务器使得它具有高可靠性;
 - 热部署、平滑升级;
 - 完全开源,生态繁荣;
Nginx 作用
Nginx 的最重要的几个使用场景: 
- 静态资源服务,通过本地文件系统提供服务;
 - 反向代理服务,延伸出包括缓存、负载均衡等;
 - API服务,OpenResty;
 
对于前端来说Node.js并不陌生,Nginx和Node.js的很多理念类似,HTTP服务器、事件驱动、异步非阻塞等,且Nginx的大部分功能使用Node.js也可以实现,但Nginx和Node.js并不冲突,都有自己擅长的领域。Nginx擅长于底层服务器端资源的处理(静态资源处理转发、反向代理,负载均衡等),Node.js更擅长上层具体业务逻辑的处理,两者可以完美组合。
用一张图表示:
Nginx 安装
本文演示的是LinuxcentOS 7.x的操作系统上安装Nginx,至于在其它操作系统上进行安装可以网上自行搜索,都非常简单的。
使用 yum安装Nginx:
yum install nginx -y
安装完成后,通过rpm -ql nginx命令查看Nginx的安装信息:
# Nginx配置文件/etc/nginx/nginx.conf # nginx 主配置文件/etc/nginx/nginx.conf.default# 可执行程序文件/usr/bin/nginx-upgrade/usr/sbin/nginx# nginx库文件/usr/lib/systemd/system/nginx.service # 用于配置系统守护进程/usr/lib64/nginx/modules # Nginx模块目录# 帮助文档/usr/share/doc/nginx-1.16.1/usr/share/doc/nginx-1.16.1/CHANGES/usr/share/doc/nginx-1.16.1/README/usr/share/doc/nginx-1.16.1/README.dynamic/usr/share/doc/nginx-1.16.1/UPGRADE-NOTES-1.6-to-1.10# 静态资源目录/usr/share/nginx/html/404.html/usr/share/nginx/html/50x.html/usr/share/nginx/html/index.html# 存放Nginx日志文件/var/log/nginx
主要关注的文件夹有两个:
- /etc/nginx/conf.d/是子配置项存放处,/etc/nginx/nginx.conf主配置文件会默认把这个文件夹中所有子配置项都引入;
 - /usr/share/nginx/html/静态文件都放在这个文件夹,也可以根据你自己的习惯放在其他地方;
 
Nginx 常用命令
systemctl系统命令:
# 开机配置systemctl enable nginx # 开机自动启动systemctl disable nginx # 关闭开机自动启动# 启动Nginxsystemctl start nginx # 启动Nginx成功后,可以直接访问主机IP,此时会展示Nginx默认页面# 停止Nginxsystemctl stop nginx# 重启Nginxsystemctl restart nginx# 重新加载Nginxsystemctl reload nginx# 查看 Nginx 运行状态systemctl status nginx# 查看Nginx进程ps -ef | grep nginx# 杀死Nginx进程kill -9 pid # 根据上面查看到的Nginx进程号,杀死Nginx进程,-9 表示强制结束进程
Nginx应用程序命令:
nginx -s reload # 向主进程发送信号,重新加载配置文件,热重启nginx -s reopen # 重启 Nginxnginx -s stop # 快速关闭nginx -s quit # 等待工作进程处理完成后关闭nginx -T # 查看当前 Nginx 最终的配置nginx -t # 检查配置是否有问题
Nginx 核心配置
配置文件结构
Nginx的典型配置示例:
# main段配置信息user nginx; # 运行用户,默认即是nginx,可以不进行设置worker_processes auto; # Nginx 进程数,一般设置为和 CPU 核数一样error_log /var/log/nginx/error.log warn; # Nginx 的错误日志存放目录pid /var/run/nginx.pid; # Nginx 服务启动时的 pid 存放位置# events段配置信息events {use epoll; # 使用epoll的I/O模型(如果你不知道Nginx该使用哪种轮询方法,会自动选择一个最适合你操作系统的)worker_connections 1024; # 每个进程允许最大并发数}# http段配置信息# 配置使用最频繁的部分,代理、缓存、日志定义等绝大多数功能和第三方模块的配置都在这里设置http {# 设置日志模式log_format main '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_referer" ''"$http_user_agent" "$http_x_forwarded_for"';access_log /var/log/nginx/access.log main; # Nginx访问日志存放位置sendfile on; # 开启高效传输模式tcp_nopush on; # 减少网络报文段的数量tcp_nodelay on;keepalive_timeout 65; # 保持连接的时间,也叫超时时间,单位秒types_hash_max_size 2048;include /etc/nginx/mime.types; # 文件扩展名与类型映射表default_type application/octet-stream; # 默认文件类型include /etc/nginx/conf.d/*.conf; # 加载子配置项# server段配置信息server {listen 80; # 配置监听的端口server_name localhost; # 配置的域名# location段配置信息location / {root /usr/share/nginx/html; # 网站根目录index index.html index.htm; # 默认首页文件deny 172.168.22.11; # 禁止访问的ip地址,可以为allallow 172.168.33.44;# 允许访问的ip地址,可以为all}error_page 500 502 503 504 /50x.html; # 默认50x对应的访问页面error_page 400 404 error.html; # 同上}}
- main全局配置,对全局生效;
 - events配置影响Nginx服务器与用户的网络连接;
 - http配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置;
 - server配置虚拟主机的相关参数,一个http块中可以有多个server块;
 - location用于配置匹配的uri;
 - upstream配置后端服务器具体地址,负载均衡配置不可或缺的部分;
 
user
指定运行Nginx的woker子进程的属主和属组,其中组可以不指定。
user USERNAME [GROUP]user nginx lion; # 用户是nginx;组是lion
pid
指定运行Nginxmaster主进程的pid文件存放路径。
pid /opt/nginx/logs/nginx.pid # master主进程的的pid存放在nginx.pid的文件
worker_rlimit_nofile_number
指定worker子进程可以打开的最大文件句柄数。
worker_rlimit_nofile 20480; # 可以理解成每个worker子进程的最大连接数量。
worker_rlimit_core
指定worker子进程异常终止后的core文件,用于记录分析问题。
worker_rlimit_core 50M; # 存放大小限制working_directory /opt/nginx/tmp; # 存放目录复制代码
worker_processes_number
指定Nginx启动的worker子进程数量。
# 指定具体子进程数量worker_processes auto; # 与当前cpu物理核心数一致复制代码worker_processes 4;
worker_cpu_affinity
将每个worker子进程与我们的cpu物理核心绑定。
worker_cpu_affinity 0001 0010 0100 1000; # 4个物理核心,4个worker子进程复制代码

将每个worker子进程与特定CPU物理核心绑定,优势在于,避免同一个worker子进程在不同的CPU核心上切换,缓存失效,降低性能。但其并不能真正的避免进程切换。
worker_priority
指定worker子进程的nice值,以调整运行Nginx的优先级,通常设定为负值,以优先调用Nginx。
worker_priority -10; # 120-10=110,110就是最终的优先级
Linux默认进程的优先级值是120,值越小越优先;nice定范围为-20到+19。
[备注] 应用的默认优先级值是120加上nice值等于它最终的值,这个值越小,优先级越高。
worker_shutdown_timeout
指定worker子进程优雅退出时的超时时间。
worker_shutdown_timeout 5s;
timer_resolution
worker子进程内部使用的计时器精度,调整时间间隔越大,系统调用越少,有利于性能提升;反之,系统调用越多,性能下降。
timer_resolution 100ms;
在Linux系统中,用户需要获取计时器时需要向操作系统内核发送请求,有请求就必然会有开销,因此这个间隔越大开销就越小。
daemon
指定Nginx的运行方式,前台还是后台,前台用于调试,后台用于生产。
daemon off; # 默认是on,后台运行模式
配置文件 events 段核心参数
use
Nginx使用何种事件驱动模型。
use method; # 不推荐配置它,让nginx自己选择method 可选值为:select、poll、kqueue、epoll、/dev/poll、eventport复制代码
worker_connections
worker子进程能够处理的最大并发连接数。
worker_connections 1024 # 每个子进程的最大连接数为1024复制代码
accept_mutex
是否打开负载均衡互斥锁。
accept_mutex on # 默认是off关闭的,这里推荐打开复制代码
server_name 指令
指定虚拟主机域名。
server_name name1 name2 name3# 示例:server_name www.nginx.com;复制代码
域名匹配的四种写法:
- 精确匹配:server_name www.nginx.com;
 - 左侧通配:server_name *.nginx.com;
 - 右侧统配:server_name www.nginx.*;
 - 正则匹配:server_name ~^www.nginx.*$;
 
匹配优先级:精确匹配 > 左侧通配符匹配 > 右侧通配符匹配 > 正则表达式匹配
server_name配置实例:
1、配置本地 DNS解析vim /etc/hosts(macOS系统)
# 添加如下内容,其中 121.42.11.34 是阿里云服务器IP地址121.42.11.34 www.nginx-test.com121.42.11.34 mail.nginx-test.com121.42.11.34 www.nginx-test.org121.42.11.34 doc.nginx-test.com121.42.11.34 www.nginx-test.cn121.42.11.34 fe.nginx-test.club
[注意] 这里使用的是虚拟域名进行测试,因此需要配置本地DNS解析,如果使用阿里云上购买的域名,则需要在阿里云上设置好域名解析。
2、配置阿里云Nginx,vim /etc/nginx/nginx.conf
# 这里只列举了http端中的sever端配置# 左匹配server {listen 80;server_name *.nginx-test.com;root /usr/share/nginx/html/nginx-test/left-match/;location / {index index.html;}}# 正则匹配server {listen 80;server_name ~^.*\.nginx-test\..*$;root /usr/share/nginx/html/nginx-test/reg-match/;location / {index index.html;}}# 右匹配server {listen 80;server_name www.nginx-test.*;root /usr/share/nginx/html/nginx-test/right-match/;location / {index index.html;}}# 完全匹配server {listen 80;server_name www.nginx-test.com;root /usr/share/nginx/html/nginx-test/all-match/;location / {index index.html;}}
3、访问分析
- 当访问www.nginx-test.com时,都可以被匹配上,因此选择优先级最高的“完全匹配”;
 - 当访问mail.nginx-test.com时,会进行“左匹配”;
 - 当访问www.nginx-test.org时,会进行“右匹配”;
 - 当访问doc.nginx-test.com时,会进行“左匹配”;
 - 当访问www.nginx-test.cn时,会进行“右匹配”;
 - 当访问fe.nginx-test.club时,会进行“正则匹配”;
root
指定静态资源目录位置,它可以写在http、server、location等配置中。root path例如:location /image { root /opt/nginx/static;}当用户访问 www.test.com/image/1.png 时,实际在服务器找的路径是 /opt/nginx/static/image/1.png复制代码
 
[注意]root会将定义路径与URI叠加,alias则只取定义路径。
alias
它也是指定静态资源目录位置,它只能写在location中。
location /image { alias /opt/nginx/static/image/;}当用户访问 www.test.com/image/1.png 时,实际在服务器找的路径是 /opt/nginx/static/image/1.png复制代码
[注意] 使用 alias 末尾一定要添加/,并且它只能位于location中。
location
配置路径。
location [ = | ~ | ~* | ^~ ] uri { ...}复制代码
匹配规则:
- =精确匹配;
 - ~正则匹配,区分大小写;
 - ~*正则匹配,不区分大小写;
 - ^~匹配到即停止搜索;
 
匹配优先级:=>^~> ~>~*> 不带任何字符。
实例:
server {listen 80;server_name www.nginx-test.com;# 只有当访问 www.nginx-test.com/match_all/ 时才会匹配到/usr/share/nginx/html/match_all/index.htmllocation = /match_all/ {root /usr/share/nginx/htmlindex index.html}# 当访问 www.nginx-test.com/1.jpg 等路径时会去 /usr/share/nginx/images/1.jpg 找对应的资源location ~ \.(jpeg|jpg|png|svg)$ {root /usr/share/nginx/images;}# 当访问 www.nginx-test.com/bbs/ 时会匹配上 /usr/share/nginx/html/bbs/index.htmllocation ^~ /bbs/ {root /usr/share/nginx/html;index index.html index.htm;}}
location 中的反斜线
location /test {...}location /test/ {...}
- 不带/当访问www.nginx-test.com/test时,Nginx先找是否有test目录,如果有则找test目录下的index.html;如果没有test目录,nginx则会找是否有test文件。
 - 带/当访问www.nginx-test.com/test时,Nginx先找是否有test目录,如果有则找test目录下的index.html,如果没有它也不会去找是否存在test文件。
return
停止处理请求,直接返回响应码或重定向到其他URL;执行return指令后,location中后续指令将不会被执行。 ```shell return code [text]; return code URL; return URL; 
例如: location / { return 404; # 直接返回状态码 }
location / { return 404 “pages not found”; # 返回状态码 + 一段文本 }
location / { return 302 /bbs ; # 返回状态码 + 重定向地址 }
location / { return https://www.baidu.com ; # 返回重定向地址 }
<a name="RxT13"></a>## [rewrite](https://mp.weixin.qq.com/s?__biz=MzUzMTA2NTU2Ng==&mid=2247487551&idx=1&sn=18f64ba49f3f0f9d8be9d1fdef8857d9&scene=21#wechat_redirect)根据指定正则表达式匹配规则,重写URL。```shell语法:rewrite 正则表达式 要替换的内容 [flag];上下文:server、location、if示例:rewirte /images/(.*\.jpg)$ /pic/$1; # $1是前面括号(.*\.jpg)的反向引用
flag可选值的含义:
- last重写后的URL发起新请求,再次进入server段,重试location的中的匹配;
 - break直接使用重写后的URL,不再匹配其它location中语句;
 - redirect返回302临时重定向;
 permanent返回301永久重定向;
server{listen 80;server_name fe.lion.club; # 要在本地hosts文件进行配置root html;location /search {rewrite ^/(.*) https://www.baidu.com redirect;}location /images {rewrite /images/(.*) /pics/$1;}location /pics {rewrite /pics/(.*) /photos/$1;}location /photos {}}
按照这个配置我们来分析:
- 当访问fe.lion.club/search时,会自动帮我们重定向到https://www.baidu.com。
 - 当访问fe.lion.club/images/1.jpg时,第一步重写URL为fe.lion.club/pics/1.jpg,找到pics的location,继续重写URL为fe.lion.club/photos/1.jpg,找到/photos的location后,去html/photos目录下寻找1.jpg静态资源。
if 指令
```shell 语法:if (condition) {…} 
上下文:server、location
示例: if($http_user_agent ~ Chrome){ rewrite /(.*)/browser/$1 break; }
condition判断条件:- $variable仅为变量时,值为空或以0开头字符串都会被当做false处理;- =或!=相等或不等;- ~正则匹配;- ! ~非正则匹配;- ~*正则匹配,不区分大小写;- -f或! -f检测文件存在或不存在;- -d或! -d检测目录存在或不存在;- -e或! -e检测文件、目录、符号链接等存在或不存在;- -x或! -x检测文件可以执行或不可执行;实例:```shellserver {listen 8080;server_name localhost;root html;location / {if ( $uri = "/images/" ){rewrite (.*) /pics/ break;}}}
当访问localhost:8080/images/时,会进入if判断里面执行rewrite命令。
autoindex
用户请求以/结尾时,列出目录结构,可以用于快速搭建静态资源下载网站。
autoindex.conf配置信息:
server {listen 80;server_name fe.lion-test.club;location /download/ {root /opt/source;autoindex on; # 打开 autoindex,,可选参数有 on | offautoindex_exact_size on; # 修改为off,以KB、MB、GB显示文件大小,默认为on,以bytes显示出⽂件的确切⼤⼩autoindex_format html; # 以html的方式进行格式化,可选参数有 html | json | xmlautoindex_localtime off; # 显示的⽂件时间为⽂件的服务器时间。默认为off,显示的⽂件时间为GMT时间}}
当访问fe.lion.com/download/时,会把服务器/opt/source/download/路径下的文件展示出来,如下图所示:
变量
Nginx提供给使用者的变量非常多,但是终究是一个完整的请求过程所产生数据,Nginx将这些数据以变量的形式提供给使用者。
下面列举些项目中常用的变量:
| 变量名 | 含义 | 
|---|---|
| remote_addr | 客户端 IP 地址  | 
| remote_port | 客户端端口 | 
| server_addr | 服务端 IP 地址  | 
| server_port | 服务端端口 | 
| server_protocol | 服务端协议 | 
| binary_remote_addr | 二进制格式的客户端 IP 地址  | 
| connection | TCP 连接的序号,递增  | 
| connection_request | TCP 连接当前的请求数量  | 
| uri | 请求的URL,不包含参数 | 
| request_uri | 请求的URL,包含参数 | 
| scheme | 协议名, http 或 https  | 
| request_method | 请求方法 | 
| request_length | 全部请求的长度,包含请求行、请求头、请求体 | 
| args | 全部参数字符串 | 
| arg_参数名 | 获取特定参数值 | 
| is_args | URL 中是否有参数,有的话返回 ? ,否则返回空  | 
| query_string | 与 args 相同  | 
| host | 请求信息中的 Host ,如果请求中没有 Host 行,则在请求头中找,最后使用 nginx 中设置的 server_name 。  | 
| http_user_agent | 用户浏览器 | 
| http_referer | 从哪些链接过来的请求 | 
| http_via | 每经过一层代理服务器,都会添加相应的信息 | 
| http_cookie | 获取用户 cookie  | 
| request_time | 处理请求已消耗的时间 | 
| https | 是否开启了 https ,是则返回 on ,否则返回空  | 
| request_filename | 磁盘文件系统待访问文件的完整路径 | 
| document_root | 由 URI 和 root/alias 规则生成的文件夹路径  | 
| limit_rate | 返回响应时的速度上限值 | 
实例演示var.conf:
server{listen 8081;server_name var.lion-test.club;root /usr/share/nginx/html;location / {return 200 "remote_addr: $remote_addrremote_port: $remote_portserver_addr: $server_addrserver_port: $server_portserver_protocol: $server_protocolbinary_remote_addr: $binary_remote_addrconnection: $connectionuri: $urirequest_uri: $request_urischeme: $schemerequest_method: $request_methodrequest_length: $request_lengthargs: $argsarg_pid: $arg_pidis_args: $is_argsquery_string: $query_stringhost: $hosthttp_user_agent: $http_user_agenthttp_referer: $http_refererhttp_via: $http_viarequest_time: $request_timehttps: $httpsrequest_filename: $request_filenamedocument_root: $document_root";}}
remote_addr: 27.16.220.84remote_port: 56838server_addr: 172.17.0.2server_port: 8081server_protocol: HTTP/1.1binary_remote_addr: 茉connection: 126uri: /test/request_uri: /test/?pid=121414&cid=sadasdscheme: httprequest_method: GETrequest_length: 518args: pid=121414&cid=sadasdarg_pid: 121414is_args: ?query_string: pid=121414&cid=sadasdhost: var.lion-test.clubhttp_user_agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.36http_referer:http_via:request_time: 0.000https:request_filename: /usr/share/nginx/html/test/document_root: /usr/share/nginx/html
Nginx的配置还有非常多,以上只是罗列了一些常用的配置,在实际项目中还是要学会查阅文档。
Nginx 应用核心概念
代理是在服务器和客户端之间假设的一层服务器,代理将接收客户端的请求并将它转发给服务器,然后将服务端的响应转发给客户端。
不管是正向代理还是反向代理,实现的都是上面的功能。
正向代理
正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。
正向代理是为我们服务的,即为客户端服务的,客户端可以根据正向代理访问到它本身无法访问到的服务器资源。
正向代理对我们是透明的,对服务端是非透明的,即服务端并不知道自己收到的是来自代理的访问还是来自真实客户端的访问。
反向代理
- 反向代理*(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。
 
反向代理是为服务端服务的,反向代理可以帮助服务器接收来自客户端的请求,帮助服务器做请求转发,负载均衡等。
反向代理对服务端是透明的,对我们是非透明的,即我们并不知道自己访问的是代理服务器,而服务器知道反向代理在为他服务。
反向代理的优势:
- 隐藏真实服务器;
 - 负载均衡便于横向扩充后端动态服务;
 - 动静分离,提升系统健壮性;
 
动静分离
动静分离是指在web服务器架构中,将静态页面与动态页面或者静态内容接口和动态内容接口分开不同系统访问的架构设计方法,进而提示整个服务的访问性和可维护性。
一般来说,都需要将动态资源和静态资源分开,由于Nginx的高并发和静态资源缓存等特性,经常将静态资源部署在Nginx上。如果请求的是静态资源,直接到静态资源目录获取资源,如果是动态资源的请求,则利用反向代理的原理,把请求转发给对应后台应用去处理,从而实现动静分离。
使用前后端分离后,可以很大程度提升静态资源的访问速度,即使动态服务不可用,静态资源的访问也不会受到影响。
负载均衡
一般情况下,客户端发送多个请求到服务器,服务器处理请求,其中一部分可能要操作一些资源比如数据库、静态资源等,服务器处理完毕后,再将结果返回给客户端。
这种模式对于早期的系统来说,功能要求不复杂,且并发请求相对较少的情况下还能胜任,成本也低。随着信息数量不断增长,访问量和数据量飞速增长,以及系统业务复杂度持续增加,这种做法已无法满足要求,并发量特别大时,服务器容易崩。
很明显这是由于服务器性能的瓶颈造成的问题,除了堆机器之外,最重要的做法就是负载均衡。
请求爆发式增长的情况下,单个机器性能再强劲也无法满足要求了,这个时候集群的概念产生了,单个服务器解决不了的问题,可以使用多个服务器,然后将请求分发到各个服务器上,将负载分发到不同的服务器,这就是负载均衡,核心是「分摊压力」。Nginx实现负载均衡,一般来说指的是将请求转发给服务器集群。
举个具体的例子,晚高峰乘坐地铁的时候,入站口经常会有地铁工作人员大喇叭“请走B口,B口人少车空….”,这个工作人员的作用就是负载均衡。
Nginx实现负载均衡的策略:
- 轮询策略:默认情况下采用的策略,将所有客户端请求轮询分配给服务端。这种策略是可以正常工作的,但是如果其中某一台服务器压力太大,出现延迟,会影响所有分配在这台服务器下的用户。
 - 最小连接数策略:将请求优先分配给压力较小的服务器,它可以平衡每个队列的长度,并避免向压力大的服务器添加更多的请求。
 - 最快响应时间策略:优先分配给响应时间最短的服务器。
 - 客户端ip绑定策略:来自同一个ip的请求永远只分配一台服务器,有效解决了动态网页存在的session共享问题。
Nginx 实战配置
在配置反向代理和负载均衡等等功能之前,有两个核心模块是我们必须要掌握的,这两个模块应该说是Nginx应用配置中的核心,它们分别是:upstream、proxy_pass。upstream
用于定义上游服务器(指的就是后台提供的应用服务器)的相关信息。
语法:upstream name { ...}上下文:http示例:upstream back_end_server{ server 192.168.100.33:8081}复制代码
 
在upstream内可使用的指令:
- server定义上游服务器地址;
 - zone定义共享内存,用于跨worker子进程;
 - keepalive对上游服务启用长连接;
 - keepalive_requests一个长连接最多请求HTTP的个数;
 - keepalive_timeout空闲情形下,一个长连接的超时时长;
 - hash哈希负载均衡算法;
 - ip_hash依据IP进行哈希计算的负载均衡算法;
 - least_conn最少连接数负载均衡算法;
 - least_time最短响应时间负载均衡算法;
 - random随机负载均衡算法;
server
定义上游服务器地址。 ```shell 语法:server address [parameters] 
上下文:upstream
parameters可选值:- weight=number权重值,默认为1;- max_conns=number上游服务器的最大并发连接数;- fail_timeout=time服务器不可用的判定时间;- max_fails=numer服务器不可用的检查次数;- backup备份服务器,仅当其他服务器都不可用时才会启用;- down标记服务器长期不可用,离线维护;<a name="Rw08P"></a>### [keepalive](https://mp.weixin.qq.com/s?__biz=MzUzMTA2NTU2Ng==&mid=2247487551&idx=1&sn=18f64ba49f3f0f9d8be9d1fdef8857d9&scene=21#wechat_redirect)限制每个worker子进程与上游服务器空闲长连接的最大数量。```shellkeepalive connections;上下文:upstream示例:keepalive 16;
keepalive_requests
单个长连接可以处理的最多HTTP请求个数。
语法:keepalive_requests number;默认值:keepalive_requests 100;上下文:upstream
keepalive_timeout
空闲长连接的最长保持时间。
语法:keepalive_timeout time;默认值:keepalive_timeout 60s;上下文:upstream复制代码
配置实例
upstream back_end{server 127.0.0.1:8081 weight=3 max_conns=1000 fail_timeout=10s max_fails=2;keepalive 32;keepalive_requests 50;keepalive_timeout 30s;}
proxy_pass
用于配置代理服务器。
语法:proxy_pass URL;上下文:location、if、limit_except示例:proxy_pass http://127.0.0.1:8081proxy_pass http://127.0.0.1:8081/proxy前言作为一名前端开发人员,你是不是经常碰到领导让你上服务器去修改Nginx配置,然而你会以“我是前端,这个我不会”为理由搪塞过去呢!今天就让我们一起告别这种尴尬,向“真正”的程序员迈进!!!如果本文对你有所帮助,请点个👍 👍 👍 吧!Nginx 概述Nginx是开源、高性能、高可靠的Web和反向代理服务器,而且支持热部署,几乎可以做到 7 * 24 小时不间断运行,即使运行几个月也不需要重新启动,还能在不间断服务的情况下对软件版本进行热更新。性能是Nginx最重要的考量,其占用内存少、并发能力强、能支持高达 5w 个并发连接数,最重要的是,Nginx是免费的并可以商业化,配置使用也比较简单。Nginx 特点●高并发、高性能;●模块化架构使得它的扩展性非常好;●异步非阻塞的事件驱动模型这点和Node.js相似;●相对于其它服务器来说它可以连续几个月甚至更长而不需要重启服务器使得它具有高可靠性;●热部署、平滑升级;●完全开源,生态繁荣;Nginx 作用Nginx 的最重要的几个使用场景:1静态资源服务,通过本地文件系统提供服务;2反向代理服务,延伸出包括缓存、负载均衡等;3API服务,OpenResty;对于前端来说Node.js并不陌生,Nginx和Node.js的很多理念类似,HTTP服务器、事件驱动、异步非阻塞等,且Nginx的大部分功能使用Node.js也可以实现,但Nginx和Node.js并不冲突,都有自己擅长的领域。Nginx擅长于底层服务器端资源的处理(静态资源处理转发、反向代理,负载均衡等),Node.js更擅长上层具体业务逻辑的处理,两者可以完美组合。用一张图表示:Nginx 安装本文演示的是LinuxcentOS 7.x的操作系统上安装Nginx,至于在其它操作系统上进行安装可以网上自行搜索,都非常简单的。使用 yum安装Nginx:1yum install nginx -y安装完成后,通过rpm -ql nginx命令查看Nginx的安装信息:1# Nginx配置文件2/etc/nginx/nginx.conf # nginx 主配置文件3/etc/nginx/nginx.conf.default45# 可执行程序文件6/usr/bin/nginx-upgrade7/usr/sbin/nginx89# nginx库文件10/usr/lib/systemd/system/nginx.service # 用于配置系统守护进程11/usr/lib64/nginx/modules # Nginx模块目录1213# 帮助文档14/usr/share/doc/nginx-1.16.115/usr/share/doc/nginx-1.16.1/CHANGES16/usr/share/doc/nginx-1.16.1/README17/usr/share/doc/nginx-1.16.1/README.dynamic18/usr/share/doc/nginx-1.16.1/UPGRADE-NOTES-1.6-to-1.101920# 静态资源目录21/usr/share/nginx/html/404.html22/usr/share/nginx/html/50x.html23/usr/share/nginx/html/index.html2425# 存放Nginx日志文件26/var/log/nginx主要关注的文件夹有两个:1/etc/nginx/conf.d/是子配置项存放处,/etc/nginx/nginx.conf主配置文件会默认把这个文件夹中所有子配置项都引入;2/usr/share/nginx/html/静态文件都放在这个文件夹,也可以根据你自己的习惯放在其他地方;Nginx 常用命令systemctl系统命令:1# 开机配置2systemctl enable nginx # 开机自动启动3systemctl disable nginx # 关闭开机自动启动45# 启动Nginx6systemctl start nginx # 启动Nginx成功后,可以直接访问主机IP,此时会展示Nginx默认页面78# 停止Nginx9systemctl stop nginx1011# 重启Nginx12systemctl restart nginx1314# 重新加载Nginx15systemctl reload nginx1617# 查看 Nginx 运行状态18systemctl status nginx1920# 查看Nginx进程21ps -ef | grep nginx2223# 杀死Nginx进程24kill -9 pid # 根据上面查看到的Nginx进程号,杀死Nginx进程,-9 表示强制结束进程25Nginx应用程序命令:1nginx -s reload # 向主进程发送信号,重新加载配置文件,热重启23nginx -s reopen # 重启 Nginx45nginx -s stop # 快速关闭67nginx -s quit # 等待工作进程处理完成后关闭89nginx -T # 查看当前 Nginx 最终的配置1011nginx -t # 检查配置是否有问题Nginx 核心配置配置文件结构Nginx的典型配置示例:1# main段配置信息2user nginx; # 运行用户,默认即是nginx,可以不进行设置3worker_processes auto; # Nginx 进程数,一般设置为和 CPU 核数一样4error_log /var/log/nginx/error.log warn; # Nginx 的错误日志存放目录5pid /var/run/nginx.pid; # Nginx 服务启动时的 pid 存放位置67# events段配置信息8events {9use epoll; # 使用epoll的I/O模型(如果你不知道Nginx该使用哪种轮询方法,会自动选择一个最适合你操作系统的)10worker_connections 1024; # 每个进程允许最大并发数11}1213# http段配置信息14# 配置使用最频繁的部分,代理、缓存、日志定义等绝大多数功能和第三方模块的配置都在这里设置15http {16# 设置日志模式17log_format main '$remote_addr - $remote_user [$time_local] "$request" '18'$status $body_bytes_sent "$http_referer" '19'"$http_user_agent" "$http_x_forwarded_for"';2021access_log /var/log/nginx/access.log main; # Nginx访问日志存放位置2223sendfile on; # 开启高效传输模式24tcp_nopush on; # 减少网络报文段的数量25tcp_nodelay on;26keepalive_timeout 65; # 保持连接的时间,也叫超时时间,单位秒27types_hash_max_size 2048;2829include /etc/nginx/mime.types; # 文件扩展名与类型映射表30default_type application/octet-stream; # 默认文件类型3132include /etc/nginx/conf.d/*.conf; # 加载子配置项3334# server段配置信息35server {36listen 80; # 配置监听的端口37server_name localhost; # 配置的域名3839# location段配置信息40location / {41root /usr/share/nginx/html; # 网站根目录42index index.html index.htm; # 默认首页文件43deny 172.168.22.11; # 禁止访问的ip地址,可以为all44allow 172.168.33.44;# 允许访问的ip地址,可以为all45}4647error_page 500 502 503 504 /50x.html; # 默认50x对应的访问页面48error_page 400 404 error.html; # 同上49}50}●main全局配置,对全局生效;●events配置影响Nginx服务器与用户的网络连接;●http配置代理,缓存,日志定义等绝大多数功能和第三方模块的配置;●server配置虚拟主机的相关参数,一个http块中可以有多个server块;●location用于配置匹配的uri;●upstream配置后端服务器具体地址,负载均衡配置不可或缺的部分;用一张图清晰的展示它的层级结构:user指定运行Nginx的woker子进程的属主和属组,其中组可以不指定。1user USERNAME [GROUP]23user nginx lion; # 用户是nginx;组是lion4pid指定运行Nginxmaster主进程的pid文件存放路径。1pid /opt/nginx/logs/nginx.pid # master主进程的的pid存放在nginx.pid的文件worker_rlimit_nofile_number指定worker子进程可以打开的最大文件句柄数。1worker_rlimit_nofile 20480; # 可以理解成每个worker子进程的最大连接数量。worker_rlimit_core指定worker子进程异常终止后的core文件,用于记录分析问题。1worker_rlimit_core 50M; # 存放大小限制working_directory /opt/nginx/tmp; # 存放目录复制代码worker_processes_number指定Nginx启动的worker子进程数量。1# 指定具体子进程数量worker_processes auto; # 与当前cpu物理核心数一致复制代码2worker_processes 4;worker_cpu_affinity将每个worker子进程与我们的cpu物理核心绑定。1worker_cpu_affinity 0001 0010 0100 1000; # 4个物理核心,4个worker子进程复制代码将每个worker子进程与特定CPU物理核心绑定,优势在于,避免同一个worker子进程在不同的CPU核心上切换,缓存失效,降低性能。但其并不能真正的避免进程切换。worker_priority指定worker子进程的nice值,以调整运行Nginx的优先级,通常设定为负值,以优先调用Nginx。1worker_priority -10; # 120-10=110,110就是最终的优先级Linux默认进程的优先级值是120,值越小越优先;nice定范围为-20到+19。[备注] 应用的默认优先级值是120加上nice值等于它最终的值,这个值越小,优先级越高。worker_shutdown_timeout指定worker子进程优雅退出时的超时时间。1worker_shutdown_timeout 5s;timer_resolutionworker子进程内部使用的计时器精度,调整时间间隔越大,系统调用越少,有利于性能提升;反之,系统调用越多,性能下降。1timer_resolution 100ms;在Linux系统中,用户需要获取计时器时需要向操作系统内核发送请求,有请求就必然会有开销,因此这个间隔越大开销就越小。daemon指定Nginx的运行方式,前台还是后台,前台用于调试,后台用于生产。1daemon off; # 默认是on,后台运行模式配置文件 events 段核心参数useNginx使用何种事件驱动模型。1use method; # 不推荐配置它,让nginx自己选择method 可选值为:select、poll、kqueue、epoll、/dev/poll、eventport复制代码worker_connectionsworker子进程能够处理的最大并发连接数。1worker_connections 1024 # 每个子进程的最大连接数为1024复制代码accept_mutex是否打开负载均衡互斥锁。1accept_mutex on # 默认是off关闭的,这里推荐打开复制代码server_name 指令指定虚拟主机域名。1server_name name1 name2 name3# 示例:server_name www.nginx.com;复制代码域名匹配的四种写法:●精确匹配:server_name www.nginx.com;●左侧通配:server_name *.nginx.com;●右侧统配:server_name www.nginx.*;●正则匹配:server_name ~^www\.nginx\.*$;匹配优先级:精确匹配 > 左侧通配符匹配 > 右侧通配符匹配 > 正则表达式匹配server_name配置实例:1、配置本地 DNS解析vim /etc/hosts(macOS系统)1# 添加如下内容,其中 121.42.11.34 是阿里云服务器IP地址2121.42.11.34 www.nginx-test.com3121.42.11.34 mail.nginx-test.com4121.42.11.34 www.nginx-test.org5121.42.11.34 doc.nginx-test.com6121.42.11.34 www.nginx-test.cn7121.42.11.34 fe.nginx-test.club[注意] 这里使用的是虚拟域名进行测试,因此需要配置本地DNS解析,如果使用阿里云上购买的域名,则需要在阿里云上设置好域名解析。2、配置阿里云Nginx,vim /etc/nginx/nginx.conf1# 这里只列举了http端中的sever端配置23# 左匹配4server {5listen 80;6server_name *.nginx-test.com;7root /usr/share/nginx/html/nginx-test/left-match/;8location / {9index index.html;10}11}1213# 正则匹配14server {15listen 80;16server_name ~^.*\.nginx-test\..*$;17root /usr/share/nginx/html/nginx-test/reg-match/;18location / {19index index.html;20}21}2223# 右匹配24server {25listen 80;26server_name www.nginx-test.*;27root /usr/share/nginx/html/nginx-test/right-match/;28location / {29index index.html;30}31}3233# 完全匹配34server {35listen 80;36server_name www.nginx-test.com;37root /usr/share/nginx/html/nginx-test/all-match/;38location / {39index index.html;40}41}3、访问分析●当访问www.nginx-test.com时,都可以被匹配上,因此选择优先级最高的“完全匹配”;●当访问mail.nginx-test.com时,会进行“左匹配”;●当访问www.nginx-test.org时,会进行“右匹配”;●当访问doc.nginx-test.com时,会进行“左匹配”;●当访问www.nginx-test.cn时,会进行“右匹配”;●当访问fe.nginx-test.club时,会进行“正则匹配”;root指定静态资源目录位置,它可以写在http、server、location等配置中。1root path例如:location /image { root /opt/nginx/static;}当用户访问 www.test.com/image/1.png 时,实际在服务器找的路径是 /opt/nginx/static/image/1.png复制代码[注意]root会将定义路径与URI叠加,alias则只取定义路径。alias它也是指定静态资源目录位置,它只能写在location中。1location /image { alias /opt/nginx/static/image/;}当用户访问 www.test.com/image/1.png 时,实际在服务器找的路径是 /opt/nginx/static/image/1.png复制代码[注意] 使用 alias 末尾一定要添加/,并且它只能位于location中。location配置路径。1location [ = | ~ | ~* | ^~ ] uri { ...}复制代码匹配规则:●=精确匹配;●~正则匹配,区分大小写;●~*正则匹配,不区分大小写;●^~匹配到即停止搜索;匹配优先级:=>^~> ~>~*> 不带任何字符。实例:1server {2listen 80;3server_name www.nginx-test.com;45# 只有当访问 www.nginx-test.com/match_all/ 时才会匹配到/usr/share/nginx/html/match_all/index.html6location = /match_all/ {7root /usr/share/nginx/html8index index.html9}1011# 当访问 www.nginx-test.com/1.jpg 等路径时会去 /usr/share/nginx/images/1.jpg 找对应的资源12location ~ \.(jpeg|jpg|png|svg)$ {13root /usr/share/nginx/images;14}1516# 当访问 www.nginx-test.com/bbs/ 时会匹配上 /usr/share/nginx/html/bbs/index.html17location ^~ /bbs/ {18root /usr/share/nginx/html;19index index.html index.htm;20}21}location 中的反斜线1location /test {2...3}45location /test/ {6...7}●不带/当访问www.nginx-test.com/test时,Nginx先找是否有test目录,如果有则找test目录下的index.html;如果没有test目录,nginx则会找是否有test文件。●带/当访问www.nginx-test.com/test时,Nginx先找是否有test目录,如果有则找test目录下的index.html,如果没有它也不会去找是否存在test文件。return停止处理请求,直接返回响应码或重定向到其他URL;执行return指令后,location中后续指令将不会被执行。1return code [text];2return code URL;3return URL;45例如:6location / {7return 404; # 直接返回状态码8}910location / {11return 404 "pages not found"; # 返回状态码 + 一段文本12}1314location / {15return 302 /bbs ; # 返回状态码 + 重定向地址16}1718location / {19return https://www.baidu.com ; # 返回重定向地址20}rewrite根据指定正则表达式匹配规则,重写URL。1语法:rewrite 正则表达式 要替换的内容 [flag];23上下文:server、location、if45示例:rewirte /images/(.*\.jpg)$ /pic/$1; # $1是前面括号(.*\.jpg)的反向引用flag可选值的含义:●last重写后的URL发起新请求,再次进入server段,重试location的中的匹配;●break直接使用重写后的URL,不再匹配其它location中语句;●redirect返回302临时重定向;●permanent返回301永久重定向;1server{2listen 80;3server_name fe.lion.club; # 要在本地hosts文件进行配置4root html;5location /search {6rewrite ^/(.*) https://www.baidu.com redirect;7}89location /images {10rewrite /images/(.*) /pics/$1;11}1213location /pics {14rewrite /pics/(.*) /photos/$1;15}1617location /photos {1819}20}按照这个配置我们来分析:●当访问fe.lion.club/search时,会自动帮我们重定向到https://www.baidu.com。●当访问fe.lion.club/images/1.jpg时,第一步重写URL为fe.lion.club/pics/1.jpg,找到pics的location,继续重写URL为fe.lion.club/photos/1.jpg,找到/photos的location后,去html/photos目录下寻找1.jpg静态资源。if 指令1语法:if (condition) {...}23上下文:server、location45示例:6if($http_user_agent ~ Chrome){7rewrite /(.*)/browser/$1 break;8}condition判断条件:●$variable仅为变量时,值为空或以0开头字符串都会被当做false处理;●=或!=相等或不等;●~正则匹配;●! ~非正则匹配;●~*正则匹配,不区分大小写;●-f或! -f检测文件存在或不存在;●-d或! -d检测目录存在或不存在;●-e或! -e检测文件、目录、符号链接等存在或不存在;●-x或! -x检测文件可以执行或不可执行;实例:1server {2listen 8080;3server_name localhost;4root html;56location / {7if ( $uri = "/images/" ){8rewrite (.*) /pics/ break;9}10}11}当访问localhost:8080/images/时,会进入if判断里面执行rewrite命令。autoindex用户请求以/结尾时,列出目录结构,可以用于快速搭建静态资源下载网站。autoindex.conf配置信息:1server {2listen 80;3server_name fe.lion-test.club;45location /download/ {6root /opt/source;78autoindex on; # 打开 autoindex,,可选参数有 on | off9autoindex_exact_size on; # 修改为off,以KB、MB、GB显示文件大小,默认为on,以bytes显示出⽂件的确切⼤⼩10autoindex_format html; # 以html的方式进行格式化,可选参数有 html | json | xml11autoindex_localtime off; # 显示的⽂件时间为⽂件的服务器时间。默认为off,显示的⽂件时间为GMT时间12}13}当访问fe.lion.com/download/时,会把服务器/opt/source/download/路径下的文件展示出来,如下图所示:变量Nginx提供给使用者的变量非常多,但是终究是一个完整的请求过程所产生数据,Nginx将这些数据以变量的形式提供给使用者。下面列举些项目中常用的变量:变量名含义remote_addr客户端IP地址remote_port客户端端口server_addr服务端IP地址server_port服务端端口server_protocol服务端协议binary_remote_addr二进制格式的客户端IP地址connectionTCP连接的序号,递增connection_requestTCP连接当前的请求数量uri请求的URL,不包含参数request_uri请求的URL,包含参数scheme协议名,http或httpsrequest_method请求方法request_length全部请求的长度,包含请求行、请求头、请求体args全部参数字符串arg_参数名获取特定参数值is_argsURL中是否有参数,有的话返回?,否则返回空query_string与args相同host请求信息中的Host,如果请求中没有Host行,则在请求头中找,最后使用nginx中设置的server_name。http_user_agent用户浏览器http_referer从哪些链接过来的请求http_via每经过一层代理服务器,都会添加相应的信息http_cookie获取用户cookierequest_time处理请求已消耗的时间https是否开启了https,是则返回on,否则返回空request_filename磁盘文件系统待访问文件的完整路径document_root由URI和root/alias规则生成的文件夹路径limit_rate返回响应时的速度上限值实例演示var.conf:1server{2listen 8081;3server_name var.lion-test.club;4root /usr/share/nginx/html;5location / {6return 200 "7remote_addr: $remote_addr8remote_port: $remote_port9server_addr: $server_addr10server_port: $server_port11server_protocol: $server_protocol12binary_remote_addr: $binary_remote_addr13connection: $connection14uri: $uri15request_uri: $request_uri16scheme: $scheme17request_method: $request_method18request_length: $request_length19args: $args20arg_pid: $arg_pid21is_args: $is_args22query_string: $query_string23host: $host24http_user_agent: $http_user_agent25http_referer: $http_referer26http_via: $http_via27request_time: $request_time28https: $https29request_filename: $request_filename30document_root: $document_root31";32}33}当我们访问http://var.lion-test.club:8081/test?pid=121414&cid=sadasd时,由于Nginx中写了return方法,因此chrome浏览器会默认为我们下载一个文件,下面展示的就是下载的文件内容:1remote_addr: 27.16.220.842remote_port: 568383server_addr: 172.17.0.24server_port: 80815server_protocol: HTTP/1.16binary_remote_addr: 茉7connection: 1268uri: /test/9request_uri: /test/?pid=121414&cid=sadasd10scheme: http11request_method: GET12request_length: 51813args: pid=121414&cid=sadasd14arg_pid: 12141415is_args: ?16query_string: pid=121414&cid=sadasd17host: var.lion-test.club18http_user_agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.182 Safari/537.3619http_referer:20http_via:21request_time: 0.00022https:23request_filename: /usr/share/nginx/html/test/24document_root: /usr/share/nginx/htmlNginx的配置还有非常多,以上只是罗列了一些常用的配置,在实际项目中还是要学会查阅文档。Nginx 应用核心概念代理是在服务器和客户端之间假设的一层服务器,代理将接收客户端的请求并将它转发给服务器,然后将服务端的响应转发给客户端。不管是正向代理还是反向代理,实现的都是上面的功能。正向代理正向代理,意思是一个位于客户端和原始服务器(origin server)之间的服务器,为了从原始服务器取得内容,客户端向代理发送一个请求并指定目标(原始服务器),然后代理向原始服务器转交请求并将获得的内容返回给客户端。正向代理是为我们服务的,即为客户端服务的,客户端可以根据正向代理访问到它本身无法访问到的服务器资源。正向代理对我们是透明的,对服务端是非透明的,即服务端并不知道自己收到的是来自代理的访问还是来自真实客户端的访问。反向代理●反向代理*(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给internet上请求连接的客户端,此时代理服务器对外就表现为一个反向代理服务器。反向代理是为服务端服务的,反向代理可以帮助服务器接收来自客户端的请求,帮助服务器做请求转发,负载均衡等。反向代理对服务端是透明的,对我们是非透明的,即我们并不知道自己访问的是代理服务器,而服务器知道反向代理在为他服务。反向代理的优势:●隐藏真实服务器;●负载均衡便于横向扩充后端动态服务;●动静分离,提升系统健壮性;那么“动静分离”是什么?负载均衡又是什么?动静分离动静分离是指在web服务器架构中,将静态页面与动态页面或者静态内容接口和动态内容接口分开不同系统访问的架构设计方法,进而提示整个服务的访问性和可维护性。一般来说,都需要将动态资源和静态资源分开,由于Nginx的高并发和静态资源缓存等特性,经常将静态资源部署在Nginx上。如果请求的是静态资源,直接到静态资源目录获取资源,如果是动态资源的请求,则利用反向代理的原理,把请求转发给对应后台应用去处理,从而实现动静分离。使用前后端分离后,可以很大程度提升静态资源的访问速度,即使动态服务不可用,静态资源的访问也不会受到影响。负载均衡一般情况下,客户端发送多个请求到服务器,服务器处理请求,其中一部分可能要操作一些资源比如数据库、静态资源等,服务器处理完毕后,再将结果返回给客户端。这种模式对于早期的系统来说,功能要求不复杂,且并发请求相对较少的情况下还能胜任,成本也低。随着信息数量不断增长,访问量和数据量飞速增长,以及系统业务复杂度持续增加,这种做法已无法满足要求,并发量特别大时,服务器容易崩。很明显这是由于服务器性能的瓶颈造成的问题,除了堆机器之外,最重要的做法就是负载均衡。请求爆发式增长的情况下,单个机器性能再强劲也无法满足要求了,这个时候集群的概念产生了,单个服务器解决不了的问题,可以使用多个服务器,然后将请求分发到各个服务器上,将负载分发到不同的服务器,这就是负载均衡,核心是「分摊压力」。Nginx实现负载均衡,一般来说指的是将请求转发给服务器集群。举个具体的例子,晚高峰乘坐地铁的时候,入站口经常会有地铁工作人员大喇叭“请走B口,B口人少车空....”,这个工作人员的作用就是负载均衡。Nginx实现负载均衡的策略:●轮询策略:默认情况下采用的策略,将所有客户端请求轮询分配给服务端。这种策略是可以正常工作的,但是如果其中某一台服务器压力太大,出现延迟,会影响所有分配在这台服务器下的用户。●最小连接数策略:将请求优先分配给压力较小的服务器,它可以平衡每个队列的长度,并避免向压力大的服务器添加更多的请求。●最快响应时间策略:优先分配给响应时间最短的服务器。●客户端ip绑定策略:来自同一个ip的请求永远只分配一台服务器,有效解决了动态网页存在的session共享问题。Nginx 实战配置在配置反向代理和负载均衡等等功能之前,有两个核心模块是我们必须要掌握的,这两个模块应该说是Nginx应用配置中的核心,它们分别是:upstream、proxy_pass。upstream用于定义上游服务器(指的就是后台提供的应用服务器)的相关信息。1语法:upstream name { ...}上下文:http示例:upstream back_end_server{ server 192.168.100.33:8081}复制代码在upstream内可使用的指令:●server定义上游服务器地址;●zone定义共享内存,用于跨worker子进程;●keepalive对上游服务启用长连接;●keepalive_requests一个长连接最多请求HTTP的个数;●keepalive_timeout空闲情形下,一个长连接的超时时长;●hash哈希负载均衡算法;●ip_hash依据IP进行哈希计算的负载均衡算法;●least_conn最少连接数负载均衡算法;●least_time最短响应时间负载均衡算法;●random随机负载均衡算法;server定义上游服务器地址。1语法:server address [parameters]23上下文:upstreamparameters可选值:●weight=number权重值,默认为1;●max_conns=number上游服务器的最大并发连接数;●fail_timeout=time服务器不可用的判定时间;●max_fails=numer服务器不可用的检查次数;●backup备份服务器,仅当其他服务器都不可用时才会启用;●down标记服务器长期不可用,离线维护;keepalive限制每个worker子进程与上游服务器空闲长连接的最大数量。1keepalive connections;23上下文:upstream45示例:keepalive 16;keepalive_requests单个长连接可以处理的最多HTTP请求个数。1语法:keepalive_requests number;23默认值:keepalive_requests 100;45上下文:upstreamkeepalive_timeout空闲长连接的最长保持时间。1语法:keepalive_timeout time;默认值:keepalive_timeout 60s;上下文:upstream复制代码配置实例1upstream back_end{2server 127.0.0.1:8081 weight=3 max_conns=1000 fail_timeout=10s max_fails=2;3keepalive 32;4keepalive_requests 50;5keepalive_timeout 30s;6}proxy_pass用于配置代理服务器。1语法:proxy_pass URL;23上下文:location、if、limit_except45示例:6proxy_pass http://127.0.0.1:80817proxy_pass http://127.0.0.1:8081/proxURL参数原则1URL必须以http或https开头;2URL中可以携带变量;3URL中是否带URI,会直接影响发往上游请求的URL;接下来让我们来看看两种常见的URL用法:1proxy_pass http://192.168.100.33:80812proxy_pass http://192.168.100.33:8081/这两种用法的区别就是带/和不带/,在配置代理时它们的区别可大了:●不带/意味着Nginx不会修改用户URL,而是直接透传给上游的应用服务器;●带/意味着Nginx会修改用户URL,修改方法是将location后的URL从用户URL中删除;不带/的用法:location /bbs/{proxy_pass http://127.0.0.1:8080;}分析:1用户请求URL:/bbs/abc/test.html2请求到达Nginx的URL:/bbs/abc/test.html3请求到达上游应用服务器的URL:/bbs/abc/test.html带/的用法:location /bbs/{proxy_pass http://127.0.0.1:8080/;}分析:1用户请求URL:/bbs/abc/test.html2请求到达Nginx的URL:/bbs/abc/test.html3请求到达上游应用服务器的URL:/abc/test.html并没有拼接上/bbs,这点和root与alias之间的区别是保持一致的。配置反向代理这里为了演示更加接近实际,作者准备了两台云服务器,它们的公网IP分别是:121.42.11.34与121.5.180.193。我们把121.42.11.34服务器作为上游服务器,做如下配置:# /etc/nginx/conf.d/proxy.confserver{listen 8080;server_name localhost;location /proxy/ {root /usr/share/nginx/html/proxy;index index.html;}}# /usr/share/nginx/html/proxy/index.html<h1> 121.42.11.34 proxy html </h1>配置完成后重启Nginx服务器nginx -s reload。把121.5.180.193服务器作为代理服务器,做如下配置:# /etc/nginx/conf.d/proxy.confupstream back_end {server 121.42.11.34:8080 weight=2 max_conns=1000 fail_timeout=10s max_fails=3;keepalive 32;keepalive_requests 80;keepalive_timeout 20s;}server {listen 80;server_name proxy.lion.club;location /proxy {proxy_pass http://back_end/proxy;}}本地机器要访问proxy.lion.club域名,因此需要配置本地hosts,通过命令:vim /etc/hosts进入配置文件,添加如下内容:121.5.180.193 proxy.lion.club分析:1当访问proxy.lion.club/proxy时通过upstream的配置找到121.42.11.34:8080;2因此访问地址变为http://121.42.11.34:8080/proxy;3连接到121.42.11.34服务器,找到8080端口提供的server;4通过server找到/usr/share/nginx/html/proxy/index.html资源,最终展示出来。配置负载均衡配置负载均衡主要是要使用upstream指令。我们把121.42.11.34服务器作为上游服务器,做如下配置(/etc/nginx/conf.d/balance.conf):server{listen 8020;location / {return 200 'return 8020 \n';}}server{listen 8030;location / {return 200 'return 8030 \n';}}server{listen 8040;location / {return 200 'return 8040 \n';}}配置完成后:1nginx -t检测配置是否正确;2nginx -s reload重启Nginx服务器;3执行ss -nlt命令查看端口是否被占用,从而判断Nginx服务是否正确启动。把121.5.180.193服务器作为代理服务器,做如下配置(/etc/nginx/conf.d/balance.conf):upstream demo_server {server 121.42.11.34:8020;server 121.42.11.34:8030;server 121.42.11.34:8040;}server {listen 80;server_name balance.lion.club;location /balance/ {proxy_pass http://demo_server;}}配置完成后重启Nginx服务器。并且在需要访问的客户端配置好ip和域名的映射关系。# /etc/hosts121.5.180.193 balance.lion.club在客户端机器执行curl http://balance.lion.club/balance/命令:不难看出,负载均衡的配置已经生效了,每次给我们分发的上游服务器都不一样。就是通过简单的轮询策略进行上游服务器分发。接下来,我们再来了解下Nginx的其它分发策略。hash 算法通过制定关键字作为hash key,基于hash算法映射到特定的上游服务器中。关键字可以包含有变量、字符串。upstream demo_server {hash $request_uri;server 121.42.11.34:8020;server 121.42.11.34:8030;server 121.42.11.34:8040;}server {listen 80;server_name balance.lion.club;location /balance/ {proxy_pass http://demo_server;}}hash $request_uri表示使用request_uri变量作为hash的key值,只要访问的URI保持不变,就会一直分发给同一台服务器。ip_hash根据客户端的请求ip进行判断,只要ip地址不变就永远分配到同一台主机。它可以有效解决后台服务器session保持的问题。upstream demo_server {ip_hash;server 121.42.11.34:8020;server 121.42.11.34:8030;server 121.42.11.34:8040;}server {listen 80;server_name balance.lion.club;location /balance/ {proxy_pass http://demo_server;}}最少连接数算法各个worker子进程通过读取共享内存的数据,来获取后端服务器的信息。来挑选一台当前已建立连接数最少的服务器进行分配请求。语法:least_conn;上下文:upstream;示例:upstream demo_server {zone test 10M; # zone可以设置共享内存空间的名字和大小least_conn;server 121.42.11.34:8020;server 121.42.11.34:8030;server 121.42.11.34:8040;}server {listen 80;server_name balance.lion.club;location /balance/ {proxy_pass http://demo_server;}}最后你会发现,负载均衡的配置其实一点都不复杂。配置缓存缓存可以非常有效的提升性能,因此不论是客户端(浏览器),还是代理服务器(Nginx),乃至上游服务器都多少会涉及到缓存。可见缓存在每个环节都是非常重要的。下面让我们来学习Nginx中如何设置缓存策略。proxy_cache存储一些之前被访问过、而且可能将要被再次访问的资源,使用户可以直接从代理服务器获得,从而减少上游服务器的压力,加快整个访问速度。语法:proxy_cache zone | off ; # zone 是共享内存的名称默认值:proxy_cache off;上下文:http、server、locationproxy_cache_path设置缓存文件的存放路径。语法:proxy_cache_path path [level=levels] ...可选参数省略,下面会详细列举默认值:proxy_cache_path off上下文:http参数含义:●path缓存文件的存放路径;●level path的目录层级;●keys_zone设置共享内存;●inactive在指定时间内没有被访问,缓存会被清理,默认10分钟;proxy_cache_key设置缓存文件的key。语法:proxy_cache_key默认值:proxy_cache_key $scheme$proxy_host$request_uri;上下文:http、server、locationproxy_cache_valid配置什么状态码可以被缓存,以及缓存时长。语法:proxy_cache_valid [code...] time;上下文:http、server、location配置示例:proxy_cache_valid 200 304 2m;; # 说明对于状态为200和304的缓存文件的缓存时间是2分钟proxy_no_cache定义相应保存到缓存的条件,如果字符串参数的至少一个值不为空且不等于“ 0”,则将不保存该响应到缓存。语法:proxy_no_cache string;上下文:http、server、location示例:proxy_no_cache $http_pragma $http_authorization;proxy_cache_bypass定义条件,在该条件下将不会从缓存中获取响应。语法:proxy_cache_bypass string;上下文:http、server、location示例:proxy_cache_bypass $http_pragma $http_authorization;upstream_cache_status 变量它存储了缓存是否命中的信息,会设置在响应头信息中,在调试中非常有用。MISS: 未命中缓存HIT: 命中缓存EXPIRED: 缓存过期STALE: 命中了陈旧缓存REVALIDDATED: Nginx验证陈旧缓存依然有效UPDATING: 内容陈旧,但正在更新BYPASS: X响应从原始服务器获取配置实例我们把121.42.11.34服务器作为上游服务器,做如下配置(/etc/nginx/conf.d/cache.conf):server {listen 1010;root /usr/share/nginx/html/1010;location / {index index.html;}}server {listen 1020;root /usr/share/nginx/html/1020;location / {index index.html;}}把121.5.180.193服务器作为代理服务器,做如下配置(/etc/nginx/conf.d/cache.conf):proxy_cache_path /etc/nginx/cache_temp levels=2:2 keys_zone=cache_zone:30m max_size=2g inactive=60m use_temp_path=off;upstream cache_server{server 121.42.11.34:1010;server 121.42.11.34:1020;}server {listen 80;server_name cache.lion.club;location / {proxy_cache cache_zone; # 设置缓存内存,上面配置中已经定义好的proxy_cache_valid 200 5m; # 缓存状态为200的请求,缓存时长为5分钟proxy_cache_key $request_uri; # 缓存文件的key为请求的URIadd_header Nginx-Cache-Status $upstream_cache_status # 把缓存状态设置为头部信息,响应给客户端proxy_pass http://cache_server; # 代理转发}}缓存就是这样配置,我们可以在/etc/nginx/cache_temp路径下找到相应的缓存文件。对于一些实时性要求非常高的页面或数据来说,就不应该去设置缓存,下面来看看如何配置不缓存的内容。...server {listen 80;server_name cache.lion.club;# URI 中后缀为 .txt 或 .text 的设置变量值为 "no cache"if ($request_uri ~ \.(txt|text)$) {set $cache_name "no cache"}location / {proxy_no_cache $cache_name; # 判断该变量是否有值,如果有值则不进行缓存,如果没有值则进行缓存proxy_cache cache_zone; # 设置缓存内存proxy_cache_valid 200 5m; # 缓存状态为200的请求,缓存时长为5分钟proxy_cache_key $request_uri; # 缓存文件的key为请求的URIadd_header Nginx-Cache-Status $upstream_cache_status # 把缓存状态设置为头部信息,响应给客户端proxy_pass http://cache_server; # 代理转发}}HTTPS在学习如何配置HTTPS之前,我们先来简单回顾下HTTPS的工作流程是怎么样的?它是如何进行加密保证安全的?HTTPS 工作流程1客户端(浏览器)访问https://www.baidu.com百度网站;2百度服务器返回HTTPS使用的CA证书;3浏览器验证CA证书是否为合法证书;4验证通过,证书合法,生成一串随机数并使用公钥(证书中提供的)进行加密;5发送公钥加密后的随机数给百度服务器;6百度服务器拿到密文,通过私钥进行解密,获取到随机数(公钥加密,私钥解密,反之也可以);7百度服务器把要发送给浏览器的内容,使用随机数进行加密后传输给浏览器;8此时浏览器可以使用随机数进行解密,获取到服务器的真实传输内容;这就是HTTPS的基本运作原理,使用对称加密和非对称机密配合使用,保证传输内容的安全性。关于HTTPS更多知识,可以查看作者的另外一篇文章《学习 HTTP 协议》。配置证书下载证书的压缩文件,里面有个Nginx文件夹,把xxx.crt和xxx.key文件拷贝到服务器目录,再进行如下配置:server {listen 443 ssl http2 default_server; # SSL 访问端口号为 443server_name lion.club; # 填写绑定证书的域名(我这里是随便写的)ssl_certificate /etc/nginx/https/lion.club_bundle.crt; # 证书地址ssl_certificate_key /etc/nginx/https/lion.club.key; # 私钥地址ssl_session_timeout 10m;ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # 支持ssl协议版本,默认为后三个,主流版本是[TLSv1.2]location / {root /usr/share/nginx/html;index index.html index.htm;}}如此配置后就能正常访问HTTPS版的网站了。配置跨域 CORS先简单回顾下跨域究竟是怎么回事。跨域的定义同源策略限制了从同一个源加载的文档或脚本如何与来自另一个源的资源进行交互。这是一个用于隔离潜在恶意文件的重要安全机制。通常不允许不同源间的读操作。同源的定义如果两个页面的协议,端口(如果有指定)和域名都相同,则两个页面具有相同的源。下面给出了与 URLhttp://store.company.com/dir/page.html的源进行对比的示例:http://store.company.com/dir2/other.html 同源https://store.company.com/secure.html 不同源,协议不同http://store.company.com:81/dir/etc.html 不同源,端口不同http://news.company.com/dir/other.html 不同源,主机不同不同源会有如下限制:●Web数据层面,同源策略限制了不同源的站点读取当前站点的Cookie、IndexDB、LocalStorage等数据。●DOM层面,同源策略限制了来自不同源的JavaScript脚本对当前DOM对象读和写的操作。●网络层面,同源策略限制了通过XMLHttpRequest等方式将站点的数据发送给不同源的站点。Nginx 解决跨域的原理例如:●前端server的域名为:fe.server.com●后端服务的域名为:dev.server.com现在我在fe.server.com对dev.server.com发起请求一定会出现跨域。现在我们只需要启动一个Nginx服务器,将server_name设置为fe.server.com然后设置相应的location以拦截前端需要跨域的请求,最后将请求代理回dev.server.com。如下面的配置:server { listen 80; server_name fe.server.com; location / { proxy_pass dev.server.com; }}复制代码这样可以完美绕过浏览器的同源策略:fe.server.com访问Nginx的fe.server.com属于同源访问,而Nginx对服务端转发的请求不会触发浏览器的同源策略。配置开启 gzip 压缩GZIP是规定的三种标准HTTP压缩格式之一。目前绝大多数的网站都在使用GZIP传输HTML、CSS、JavaScript等资源文件。对于文本文件,GZiP的效果非常明显,开启后传输所需流量大约会降至1/4~1/3。并不是每个浏览器都支持gzip的,如何知道客户端是否支持gzip呢,请求头中的Accept-Encoding来标识对压缩的支持。启用gzip同时需要客户端和服务端的支持,如果客户端支持gzip的解析,那么只要服务端能够返回gzip的文件就可以启用gzip了,我们可以通过Nginx的配置来让服务端支持gzip。下面的respone中content-encoding:gzip,指服务端开启了gzip的压缩方式。在/etc/nginx/conf.d/文件夹中新建配置文件gzip.conf:# # 默认off,是否开启gzipgzip on;# 要采用 gzip 压缩的 MIME 文件类型,其中 text/html 被系统强制启用;gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript;# ---- 以上两个参数开启就可以支持Gzip压缩了 ---- ## 默认 off,该模块启用后,Nginx 首先检查是否存在请求静态文件的 gz 结尾的文件,如果有则直接返回该 .gz 文件内容;gzip_static on;# 默认 off,nginx做为反向代理时启用,用于设置启用或禁用从代理服务器上收到相应内容 gzip 压缩;gzip_proxied any;# 用于在响应消息头中添加 Vary:Accept-Encoding,使代理服务器根据请求头中的 Accept-Encoding 识别是否启用 gzip 压缩;gzip_vary on;# gzip 压缩比,压缩级别是 1-9,1 压缩级别最低,9 最高,级别越高压缩率越大,压缩时间越长,建议 4-6;gzip_comp_level 6;# 获取多少内存用于缓存压缩结果,16 8k 表示以 8k*16 为单位获得;gzip_buffers 16 8k;# 允许压缩的页面最小字节数,页面字节数从header头中的 Content-Length 中进行获取。默认值是 0,不管页面多大都压缩。建议设置成大于 1k 的字节数,小于 1k 可能会越压越大;# gzip_min_length 1k;# 默认 1.1,启用 gzip 所需的 HTTP 最低版本;gzip_http_version 1.1;其实也可以通过前端构建工具例如webpack、rollup等在打生产包时就做好Gzip压缩,然后放到Nginx服务器中,这样可以减少服务器的开销,加快访问速度。关于Nginx的实际应用就学习到这里,相信通过掌握了Nginx核心配置以及实战配置,之后再遇到什么需求,我们也能轻松应对。接下来,让我们再深入一点学习下Nginx的架构。Nginx 架构进程结构多进程结构Nginx的进程模型图:多进程中的Nginx进程架构如下图所示,会有一个父进程(Master Process),它会有很多子进程(Child Processes)。●Master Process用来管理子进程的,其本身并不真正处理用户请求。○某个子进程down掉的话,它会向Master进程发送一条消息,表明自己不可用了,此时Master进程会去新起一个子进程。○某个配置文件被修改了Master进程会去通知work进程获取新的配置信息,这也就是我们所说的热部署。●子进程间是通过共享内存的方式进行通信的。配置文件重载原理reload重载配置文件的流程:1向master进程发送HUP信号(reload命令);2master进程检查配置语法是否正确;3master进程打开监听端口;4master进程使用新的配置文件启动新的worker子进程;5master进程向老的worker子进程发送QUIT信号;6老的worker进程关闭监听句柄,处理完当前连接后关闭进程;7整个过程Nginx始终处于平稳运行中,实现了平滑升级,用户无感知;Nginx 模块化管理机制Nginx的内部结构是由核心部分和一系列的功能模块所组成。这样划分是为了使得每个模块的功能相对简单,便于开发,同时也便于对系统进行功能扩展。Nginx的模块是互相独立的,低耦合高内聚。总结相信通过本文的学习,你应该会对Nginx有一个更加全面的认识。都看到这里了,就点个👍 👍 👍 吧。参考 #
URL参数原则
- URL必须以http或https开头;
 - URL中可以携带变量;
 - URL中是否带URI,会直接影响发往上游请求的URL;
 
接下来让我们来看看两种常见的URL用法:
- proxy_pass http://192.168.100.33:8081
 - proxy_pass http://192.168.100.33:8081/
 
这两种用法的区别就是带/和不带/,在配置代理时它们的区别可大了:
- 不带/意味着Nginx不会修改用户URL,而是直接透传给上游的应用服务器;
 - 带/意味着Nginx会修改用户URL,修改方法是将location后的URL从用户URL中删除;
 
不带/的用法:
location /bbs/{
  proxy_pass http://127.0.0.1:8080;
}
分析:
- 用户请求URL:/bbs/abc/test.html
 - 请求到达Nginx的URL:/bbs/abc/test.html
 - 请求到达上游应用服务器的URL:/bbs/abc/test.html
 
带/的用法:
location /bbs/{
  proxy_pass http://127.0.0.1:8080/;
}
分析:
- 用户请求URL:/bbs/abc/test.html
 - 请求到达Nginx的URL:/bbs/abc/test.html
 - 请求到达上游应用服务器的URL:/abc/test.html
 
并没有拼接上/bbs,这点和root与alias之间的区别是保持一致的。
配置反向代理
这里为了演示更加接近实际,作者准备了两台云服务器,它们的公网IP分别是:121.42.11.34与121.5.180.193。
我们把121.42.11.34服务器作为上游服务器,做如下配置:
# /etc/nginx/conf.d/proxy.conf
server{
  listen 8080;
  server_name localhost;
  location /proxy/ {
    root /usr/share/nginx/html/proxy;
    index index.html;
  }
}
/usr/share/nginx/html/proxy/index.html
121.42.11.34 proxy html
配置完成后重启Nginx服务器nginx -s reload。
把121.5.180.193服务器作为代理服务器,做如下配置:
# /etc/nginx/conf.d/proxy.conf
upstream back_end {
  server 121.42.11.34:8080 weight=2 max_conns=1000 fail_timeout=10s max_fails=3;
  keepalive 32;
  keepalive_requests 80;
  keepalive_timeout 20s;
}
server {
  listen 80;
  server_name proxy.lion.club;
  location /proxy {
   proxy_pass http://back_end/proxy;
  }
}
本地机器要访问proxy.lion.club域名,因此需要配置本地hosts,通过命令:vim /etc/hosts进入配置文件,添加如下内容:
121.5.180.193 proxy.lion.club

分析:
- 当访问proxy.lion.club/proxy时通过upstream的配置找到121.42.11.34:8080;
 - 因此访问地址变为http://121.42.11.34:8080/proxy;
 - 连接到121.42.11.34服务器,找到8080端口提供的server;
 - 通过server找到/usr/share/nginx/html/proxy/index.html资源,最终展示出来。
配置负载均衡
配置负载均衡主要是要使用upstream指令。
我们把121.42.11.34服务器作为上游服务器,做如下配置(/etc/nginx/conf.d/balance.conf):
server{
listen 8020;
location / {
return 200 ‘return 8020 \n’;
}
} 
server{
  listen 8030;
  location / {
   return 200 ‘return 8030 \n’;
  }
}
server{
  listen 8040;
  location / {
   return 200 ‘return 8040 \n’;
  }
}
配置完成后:
- nginx -t检测配置是否正确;
 - nginx -s reload重启Nginx服务器;
 - 执行ss -nlt命令查看端口是否被占用,从而判断Nginx服务是否正确启动。
 
把121.5.180.193服务器作为代理服务器,做如下配置(/etc/nginx/conf.d/balance.conf):
upstream demo_server {
  server 121.42.11.34:8020;
  server 121.42.11.34:8030;
  server 121.42.11.34:8040;
}
server {
  listen 80;
  server_name balance.lion.club;
  location /balance/ {
   proxy_pass http://demo_server;
  }
}
配置完成后重启Nginx服务器。并且在需要访问的客户端配置好ip和域名的映射关系。
# /etc/hosts
121.5.180.193 balance.lion.club
在客户端机器执行curl http://balance.lion.club/balance/命令:
不难看出,负载均衡的配置已经生效了,每次给我们分发的上游服务器都不一样。就是通过简单的轮询策略进行上游服务器分发。
接下来,我们再来了解下Nginx的其它分发策略。
hash 算法
通过制定关键字作为hash key,基于hash算法映射到特定的上游服务器中。关键字可以包含有变量、字符串。
upstream demo_server {
  hash $request_uri;
  server 121.42.11.34:8020;
  server 121.42.11.34:8030;
  server 121.42.11.34:8040;
}
server {
  listen 80;
  server_name balance.lion.club;
  location /balance/ {
   proxy_pass http://demo_server;
  }
}
hash $request_uri表示使用request_uri变量作为hash的key值,只要访问的URI保持不变,就会一直分发给同一台服务器。
ip_hash
根据客户端的请求ip进行判断,只要ip地址不变就永远分配到同一台主机。它可以有效解决后台服务器session保持的问题。
upstream demo_server {
  ip_hash;
  server 121.42.11.34:8020;
  server 121.42.11.34:8030;
  server 121.42.11.34:8040;
}
server {
  listen 80;
  server_name balance.lion.club;
  location /balance/ {
   proxy_pass http://demo_server;
  }
}
最少连接数算法
各个worker子进程通过读取共享内存的数据,来获取后端服务器的信息。来挑选一台当前已建立连接数最少的服务器进行分配请求。
语法:least_conn;
上下文:upstream;
示例:
upstream demo_server {
  zone test 10M; # zone可以设置共享内存空间的名字和大小
  least_conn;
  server 121.42.11.34:8020;
  server 121.42.11.34:8030;
  server 121.42.11.34:8040;
}
server {
  listen 80;
  server_name balance.lion.club;
  location /balance/ {
   proxy_pass http://demo_server;
  }
}
配置缓存
缓存可以非常有效的提升性能,因此不论是客户端(浏览器),还是代理服务器(Nginx),乃至上游服务器都多少会涉及到缓存。可见缓存在每个环节都是非常重要的。下面让我们来学习Nginx中如何设置缓存策略。
proxy_cache
存储一些之前被访问过、而且可能将要被再次访问的资源,使用户可以直接从代理服务器获得,从而减少上游服务器的压力,加快整个访问速度。
语法:proxy_cache zone | off ; # zone 是共享内存的名称
默认值:proxy_cache off;
上下文:http、server、location
proxy_cache_path
设置缓存文件的存放路径。
语法:proxy_cache_path path [level=levels] …可选参数省略,下面会详细列举
默认值:proxy_cache_path off
上下文:http
参数含义:
- path缓存文件的存放路径;
 - level path的目录层级;
 - keys_zone设置共享内存;
 - inactive在指定时间内没有被访问,缓存会被清理,默认10分钟;
proxy_cache_key
设置缓存文件的key。
语法:proxy_cache_key 
默认值:proxy_cache_key $scheme$proxy_host$request_uri;
上下文:http、server、location
proxy_cache_valid
配置什么状态码可以被缓存,以及缓存时长。
语法:proxy_cache_valid [code…] time;
上下文:http、server、location
配置示例:proxy_cache_valid 200 304 2m;; # 说明对于状态为200和304的缓存文件的缓存时间是2分钟
proxy_no_cache
定义相应保存到缓存的条件,如果字符串参数的至少一个值不为空且不等于“ 0”,则将不保存该响应到缓存。
语法:proxy_no_cache string;
上下文:http、server、location
示例:proxy_no_cache $http_pragma $http_authorization;
proxy_cache_bypass
定义条件,在该条件下将不会从缓存中获取响应。
语法:proxy_cache_bypass string;
上下文:http、server、location
示例:proxy_cache_bypass $http_pragma $http_authorization;
upstream_cache_status 变量
它存储了缓存是否命中的信息,会设置在响应头信息中,在调试中非常有用。
MISS: 未命中缓存
HIT: 命中缓存
EXPIRED: 缓存过期
STALE: 命中了陈旧缓存
REVALIDDATED: Nginx验证陈旧缓存依然有效
UPDATING: 内容陈旧,但正在更新
BYPASS: X响应从原始服务器获取
配置实例
我们把121.42.11.34服务器作为上游服务器,做如下配置(/etc/nginx/conf.d/cache.conf):
server {
  listen 1010;
  root /usr/share/nginx/html/1010;
  location / {
   index index.html;
  }
}
server {
  listen 1020;
  root /usr/share/nginx/html/1020;
  location / {
   index index.html;
  }
}
把121.5.180.193服务器作为代理服务器,做如下配置(/etc/nginx/conf.d/cache.conf):
proxy_cache_path /etc/nginx/cache_temp levels=2:2 keys_zone=cache_zone:30m max_size=2g inactive=60m use_temp_path=off;
upstream cache_server{
  server 121.42.11.34:1010;
  server 121.42.11.34:1020;
}
server {
  listen 80;
  server_name cache.lion.club;
  location / {
    proxy_cache cache_zone; # 设置缓存内存,上面配置中已经定义好的
    proxy_cache_valid 200 5m; # 缓存状态为200的请求,缓存时长为5分钟
    proxy_cache_key $request_uri; # 缓存文件的key为请求的URI
    add_header Nginx-Cache-Status $upstream_cache_status # 把缓存状态设置为头部信息,响应给客户端
    proxy_pass http://cache_server; # 代理转发
  }
}
缓存就是这样配置,我们可以在/etc/nginx/cache_temp路径下找到相应的缓存文件。
对于一些实时性要求非常高的页面或数据来说,就不应该去设置缓存,下面来看看如何配置不缓存的内容。
…
server {
  listen 80;
  server_name cache.lion.club;
  # URI 中后缀为 .txt 或 .text 的设置变量值为 “no cache”
  if ($request_uri ~ .(txt|text)$) {
   set $cache_name “no cache”
  }
  location / {
    proxy_no_cache $cache_name; # 判断该变量是否有值,如果有值则不进行缓存,如果没有值则进行缓存
    proxy_cache cache_zone; # 设置缓存内存
    proxy_cache_valid 200 5m; # 缓存状态为200的请求,缓存时长为5分钟
    proxy_cache_key $request_uri; # 缓存文件的key为请求的URI
    add_header Nginx-Cache-Status $upstream_cache_status # 把缓存状态设置为头部信息,响应给客户端
    proxy_pass http://cache_server; # 代理转发
  }
}
HTTPS
在学习如何配置HTTPS之前,我们先来简单回顾下HTTPS的工作流程是怎么样的?它是如何进行加密保证安全的?
HTTPS 工作流程
- 客户端(浏览器)访问https://www.baidu.com百度网站;
 - 百度服务器返回HTTPS使用的CA证书;
 - 浏览器验证CA证书是否为合法证书;
 - 验证通过,证书合法,生成一串随机数并使用公钥(证书中提供的)进行加密;
 - 发送公钥加密后的随机数给百度服务器;
 - 百度服务器拿到密文,通过私钥进行解密,获取到随机数(公钥加密,私钥解密,反之也可以);
 - 百度服务器把要发送给浏览器的内容,使用随机数进行加密后传输给浏览器;
 - 此时浏览器可以使用随机数进行解密,获取到服务器的真实传输内容;
 
这就是HTTPS的基本运作原理,使用对称加密和非对称机密配合使用,保证传输内容的安全性。
关于HTTPS更多知识,可以查看作者的另外一篇文章《学习 HTTP 协议》。
配置证书
下载证书的压缩文件,里面有个Nginx文件夹,把xxx.crt和xxx.key文件拷贝到服务器目录,再进行如下配置:
server {
  listen 443 ssl http2 default_server;   # SSL 访问端口号为 443
  server_name lion.club;         # 填写绑定证书的域名(我这里是随便写的)
  ssl_certificate /etc/nginx/https/lion.club_bundle.crt;   # 证书地址
  ssl_certificate_key /etc/nginx/https/lion.club.key;      # 私钥地址
  ssl_session_timeout 10m;
  ssl_protocols TLSv1 TLSv1.1 TLSv1.2; # 支持ssl协议版本,默认为后三个,主流版本是[TLSv1.2]
  location / {
    root         /usr/share/nginx/html;
    index        index.html index.htm;
  }
}
配置跨域 CORS
跨域的定义
同源策略限制了从同一个源加载的文档或脚本如何与来自另一个源的资源进行交互。这是一个用于隔离潜在恶意文件的重要安全机制。通常不允许不同源间的读操作。
同源的定义
如果两个页面的协议,端口(如果有指定)和域名都相同,则两个页面具有相同的源。
下面给出了与 URLhttp://store.company.com/dir/page.html的源进行对比的示例:
http://store.company.com/dir2/other.html 同源
https://store.company.com/secure.html 不同源,协议不同
http://store.company.com:81/dir/etc.html 不同源,端口不同
http://news.company.com/dir/other.html 不同源,主机不同
不同源会有如下限制:
- Web数据层面,同源策略限制了不同源的站点读取当前站点的Cookie、IndexDB、LocalStorage等数据。
 - DOM层面,同源策略限制了来自不同源的JavaScript脚本对当前DOM对象读和写的操作。
 网络层面,同源策略限制了通过XMLHttpRequest等方式将站点的数据发送给不同源的站点。
Nginx 解决跨域的原理
例如:
前端server的域名为:fe.server.com
- 后端服务的域名为:dev.server.com
 
现在我在fe.server.com对dev.server.com发起请求一定会出现跨域。
现在我们只需要启动一个Nginx服务器,将server_name设置为fe.server.com然后设置相应的location以拦截前端需要跨域的请求,最后将请求代理回dev.server.com。如下面的配置:
server { listen      80; server_name  fe.server.com; location / {  proxy_pass dev.server.com; }}复制代码
这样可以完美绕过浏览器的同源策略:fe.server.com访问Nginx的fe.server.com属于同源访问,而Nginx对服务端转发的请求不会触发浏览器的同源策略。
配置开启 gzip 压缩
GZIP是规定的三种标准HTTP压缩格式之一。目前绝大多数的网站都在使用GZIP传输HTML、CSS、JavaScript等资源文件。
对于文本文件,GZiP的效果非常明显,开启后传输所需流量大约会降至1/4~1/3。
并不是每个浏览器都支持gzip的,如何知道客户端是否支持gzip呢,请求头中的Accept-Encoding来标识对压缩的支持。
启用gzip同时需要客户端和服务端的支持,如果客户端支持gzip的解析,那么只要服务端能够返回gzip的文件就可以启用gzip了,我们可以通过Nginx的配置来让服务端支持gzip。下面的respone中content-encoding:gzip,指服务端开启了gzip的压缩方式。
在/etc/nginx/conf.d/文件夹中新建配置文件gzip.conf:
# # 默认off,是否开启gzip
gzip on;
# 要采用 gzip 压缩的 MIME 文件类型,其中 text/html 被系统强制启用;
gzip_types text/plain text/css application/json application/x-javascript text/xml application/xml application/xml+rss text/javascript;
—— 以上两个参数开启就可以支持Gzip压缩了 ——
默认 off,该模块启用后,Nginx 首先检查是否存在请求静态文件的 gz 结尾的文件,如果有则直接返回该 .gz 文件内容;
gzip_static on;
默认 off,nginx做为反向代理时启用,用于设置启用或禁用从代理服务器上收到相应内容 gzip 压缩;
gzip_proxied any;
用于在响应消息头中添加 Vary:Accept-Encoding,使代理服务器根据请求头中的 Accept-Encoding 识别是否启用 gzip 压缩;
gzip_vary on;
gzip 压缩比,压缩级别是 1-9,1 压缩级别最低,9 最高,级别越高压缩率越大,压缩时间越长,建议 4-6;
gzip_comp_level 6;
获取多少内存用于缓存压缩结果,16 8k 表示以 8k*16 为单位获得;
gzip_buffers 16 8k;
允许压缩的页面最小字节数,页面字节数从header头中的 Content-Length 中进行获取。默认值是 0,不管页面多大都压缩。建议设置成大于 1k 的字节数,小于 1k 可能会越压越大;
# gzip_min_length 1k;
默认 1.1,启用 gzip 所需的 HTTP 最低版本;
gzip_http_version 1.1;
其实也可以通过前端构建工具例如webpack、rollup等在打生产包时就做好Gzip压缩,然后放到Nginx服务器中,这样可以减少服务器的开销,加快访问速度。
关于Nginx的实际应用就学习到这里,相信通过掌握了Nginx核心配置以及实战配置,之后再遇到什么需求,我们也能轻松应对。接下来,让我们再深入一点学习下Nginx的架构。
Nginx 架构
进程结构
多进程结构Nginx的进程模型图:
多进程中的Nginx进程架构如下图所示,会有一个父进程(Master Process),它会有很多子进程(Child Processes)。
- Master Process用来管理子进程的,其本身并不真正处理用户请求。
- 某个子进程down掉的话,它会向Master进程发送一条消息,表明自己不可用了,此时Master进程会去新起一个子进程。
 - 某个配置文件被修改了Master进程会去通知work进程获取新的配置信息,这也就是我们所说的热部署。
 
 - 子进程间是通过共享内存的方式进行通信的。
配置文件重载原理
reload重载配置文件的流程: 
- 向master进程发送HUP信号(reload命令);
 - master进程检查配置语法是否正确;
 - master进程打开监听端口;
 - master进程使用新的配置文件启动新的worker子进程;
 - master进程向老的worker子进程发送QUIT信号;
 - 老的worker进程关闭监听句柄,处理完当前连接后关闭进程;
 - 整个过程Nginx始终处于平稳运行中,实现了平滑升级,用户无感知;
Nginx 模块化管理机制
Nginx的内部结构是由核心部分和一系列的功能模块所组成。这样划分是为了使得每个模块的功能相对简单,便于开发,同时也便于对系统进行功能扩展。Nginx的模块是互相独立的,低耦合高内聚。
总结
相信通过本文的学习,你应该会对Nginx有一个更加全面的认识。
都看到这里了,就点个👍 👍 👍 吧。 
参考 #
