实现效果 : 通过浏览器地址栏输入 http://192.168.11.110/edu/a.html ,负载均衡,平均在8081和8082 端口中

    1.准备tomcat服务器,一台8081和8082,在webapps目录中创建edu文件夹,在文件建a.html页面,用于测试

    2.在nginx的配置文件中进行负载均衡的配置
    image.png
    upstream myserver {
    server 192.168.11.110:8081;
    server 192.168.11.110:8082;
    }

    1. server {<br /> listen 80;<br /> server_name 192.168.11.110;
    2. location / {<br /> proxy_pass http://myserver;<br /> root html;<br /> index index.html index.htm;<br /> }<br /> }

    测试 :
    image.pngimage.png

    使用chrom浏览器的时候,刷新可能没有什么用,在地址栏按空格有效(其他浏览器有效);

    随着互联网信息的爆炸性增长,负载均衡(load balance)已经不再是一个很陌生的话题,顾名思义,负载均衡即是将负载分摊到不同的服务单元,既保证服务的可用性,又保证响应足够快,给用户很好的体验。快速增长的访问量和数据流量催生了各式各样的负载均衡产品,很多专业的负载均衡硬件提供了很好的功能,但却价格不菲,这使得负载均衡软件大受欢迎,nginx 就是其中的一个,在 linux 下有 Nginx、LVS、Haproxy 等等服务可以提供负载均衡服务,而且 Nginx 提供了几种分配方式(策略):

    1、轮询(默认)
    每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

    2、weight
    weight 代表权,重默认为 1,权重越高被分配的客户端越多指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。 例如:
    upstream server_pool{
    server 192.168.11.110 weight=10;
    server 192.168.11.110 weight=10;
    }
    3、ip_hash
    每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。
    例如:
    upstream server_pool{
    ip_hash;
    server 192.168.11.110;
    server 192.168.11.110;
    }
    4、fair(第三方)
    按后端服务器的响应时间来分配请求,响应时间短的优先分配。
    upstream server_pool{
    server 192.168.11.110:80;
    server 192.168.11.100:80;
    fair;
    }