• 07--nginx负载均衡实战


    1、负载均衡概述

    早期的网站流量和业务功能都比较简单,单台服务器足以满足基本的需求,但是随着互联网的发展,业务流量越来越大并且业务逻辑也跟着越来越复杂,单台服务器的性能及单点故障问题就凸显出来了,因此需要多台服务器进行性能的水平扩展及避免单点故障出现。那么如何将不同用户的请求流量分发到不同的服务器上呢?
    image.png

    2、负载均衡的原理及处理流程

    系统的扩展可以分为纵向扩展和横向扩展。
    纵向扩展是从单机的角度出发,通过增加系统的硬件处理能力来提升服务器的处理能力
    横向扩展是通过添加机器来满足大型网站服务的处理能力。
    image.png

    3、负载均衡的作用

    1、解决服务器的高并发压力,提高应用程序的处理性能。
    2、提供故障转移,实现高可用。
    3、通过添加或减少服务器数量,增强网站的可扩展性。
    4、在负载均衡器上进行过滤,可以提高系统的安全性。

    4、负载均衡常用的处理方式

    4.1 方式一:用户手动选择

    这种方式比较原始,只要实现的方式就是在网站主页上面提供不同线路、不同服务器链接方式,让用户来选择自己访问的具体服务器,来实现负载均衡。无法控制服务的流量
    image.png

    4.2 方式二:DNS轮询方式

    DNS:域名系统(服务)协议(DNS)是一种分布式网络目录服务,主要用于域名与 IP 地址的相互转换。
    大多域名注册商都支持对同一个主机名添加多条A记录,这就是DNS轮询,DNS服务器将解析请求按照A记录的顺序,随机分配到不同的IP上,这样就能完成简单的负载均衡。DNS轮询的成本非常低,在一些不重要的服务器,被经常使用。
    image.png

    ipconfig/flushdns
    
    • 1
    C:\Users\zengqfa>ping www.baidu.com
    
    正在 Ping www.a.shifen.com [183.232.231.172] 具有 32 字节的数据:
    来自 183.232.231.172 的回复: 字节=32 时间=12ms TTL=57
    来自 183.232.231.172 的回复: 字节=32 时间=13ms TTL=57
    来自 183.232.231.172 的回复: 字节=32 时间=13ms TTL=57
    来自 183.232.231.172 的回复: 字节=32 时间=13ms TTL=57
    
    183.232.231.172 的 Ping 统计信息:
        数据包: 已发送 = 4,已接收 = 4,丢失 = 0 (0% 丢失),
    往返行程的估计时间(以毫秒为单位):
        最短 = 12ms,最长 = 13ms,平均 = 12ms
    
    C:\Users\zengqfa>ipconfig/flushdns
    
    Windows IP 配置
    
    已成功刷新 DNS 解析缓存。
    
    C:\Users\zengqfa>ping www.baidu.com
    
    正在 Ping www.a.shifen.com [183.232.231.174] 具有 32 字节的数据:
    来自 183.232.231.174 的回复: 字节=32 时间=8ms TTL=57
    来自 183.232.231.174 的回复: 字节=32 时间=8ms TTL=57
    来自 183.232.231.174 的回复: 字节=32 时间=10ms TTL=57
    来自 183.232.231.174 的回复: 字节=32 时间=10ms TTL=57
    
    183.232.231.174 的 Ping 统计信息:
        数据包: 已发送 = 4,已接收 = 4,丢失 = 0 (0% 丢失),
    往返行程的估计时间(以毫秒为单位):
        最短 = 8ms,最长 = 10ms,平均 = 9ms
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24
    • 25
    • 26
    • 27
    • 28
    • 29
    • 30
    • 31

    我们发现使用DNS来实现轮询,不需要投入过多的成本,虽然DNS轮询成本低廉,但是DNS负载均衡存在明显的缺点。
    1.可靠性低
    假设一个域名DNS轮询多台服务器,如果其中的一台服务器发生故障,那么所有的访问该服务器的请求将不会有所回应,即使你将该服务器的IP从DNS中去掉,但是由于各大宽带接入商将众多的DNS存放在缓存中,以节省访问时间,导致DNS不会实时更新。所以DNS轮流上一定程度上解决了负载均衡问题,但是却存在可靠性不高的缺点。
    2.负载均衡不均衡
    DNS负载均衡采用的是简单的轮询负载算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能好的服务器多分配请求,另外本地计算机也会缓存已经解析的域名到IP地址的映射,这也会导致使用该DNS服务器的用户在一定时间内访问的是同一台Web服务器,从而引发Web服务器减的负载不均衡。
    负载不均衡则会导致某几台服务器负荷很低,而另外几台服务器负荷确很高,处理请求的速度慢,配置高的服务器分配到的请求少,而配置低的服务器分配到的请求多。

    4.3 方式三:四/七层负载均衡

    介绍四/七层负载均衡之前,我们先了解一个概念,OSI(open system interconnection),叫开放式系统互联模型,这个是由国际标准化组织ISO指定的一个不基于具体机型、操作系统或公司的网络体系结构。该模型将网络通信的工作分为七层。
    image.png

    实现四层负载均衡的方式:
    硬件:F5 BIG-IP、Radware等
    软件:LVS、Nginx、Hayproxy等
    
    • 1
    • 2
    • 3

    所谓的七层负载均衡指的是在应用层,主要是基于虚拟的URL或主机IP的负载均衡

     实现七层负载均衡的方式:
     软件:Nginx、Hayproxy等
    
    • 1
    • 2

    四层和七层负载均衡的区别

    四层负载均衡数据包是在底层就进行了分发,而七层负载均衡数据包则在最顶端进行分发,所以四层负载
    均衡的效率比七层负载均衡的要高。
    四层负载均衡不识别域名,而七层负载均衡识别域名。
    
    • 1
    • 2
    • 3

    处理四层和七层负载以为其实还有二层、三层负载均衡,二层是在数据链路层基于mac地址来实现负载均衡,三层是在网络层一般采用虚拟IP地址的方式实现负载均衡。
    实际环境采用的模式

     四层负载(LVS)+七层负载(Nginx)
    
    • 1

    5、Nginx七层负载均衡

    Nginx要实现七层负载均衡需要用到proxy_pass代理模块配置。Nginx默认安装支持这个模块,我们不需要再做任何处理。Nginx的负载均衡是在Nginx的反向代理基础上把用户的请求根据指定的算法分发到一组【upstream虚拟服务池】。

    5.1 Nginx七层负载均衡的指令

    upstream指令

    该指令是用来定义一组服务器,它们可以是监听不同端口的服务器,并且也可以是同时监听TCP和Unix socket的服务器。服务器可以指定不同的权重,默认为1。

    语法upstream name {…}
    默认值
    位置http

    server指令

    该指令用来指定后端服务器的名称和一些参数,可以使用域名、IP、端口或者unix socket

    语法server name [paramerters]
    默认值
    位置upstream

    5.2 Nginx七层负载均衡的实现流程

    image.png

    server {
        listen   9001;
        server_name localhost;
        default_type text/html;
        location /{
        	return 200 '

    192.168.75.134:9001

    '; } } server { listen 9002; server_name localhost; default_type text/html; location /{ return 200 '

    192.168.75.134:9002

    '; } } server { listen 9003; server_name localhost; default_type text/html; location /{ return 200 '

    192.168.75.134:9003

    '; } }
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    负载均衡器设置

    upstream backend{
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    	server 192.168.75.134:9003;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    5.3 负载均衡状态

    代理服务器在负责均衡调度中的状态有以下几个:

    状态概述
    down当前的server暂时不参与负载均衡
    backup预留的备份服务器
    max_fails允许请求失败的次数
    fail_timeout经过max_fails失败后, 服务暂停时间
    max_conns限制最大的接收连接数

    down

    down:将该服务器标记为永久不可用,那么该代理服务器将不参与负载均衡。

     upstream backend{
         server 192.168.75.134:9001 down;
         server 192.168.75.134:9002;
         server 192.168.75.134:9003;
     }
     server {
         listen 8083;
         server_name localhost;
         location /{
             proxy_pass http://backend;
         }
     }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    该状态一般会对需要停机维护的服务器进行设置。

    backup

    backup:将该服务器标记为备份服务器,当主服务器不可用时,将用来传递请求。

     upstream backend{
         server 192.168.75.134:9001 down;
         server 192.168.75.134:9002 backup;
         server 192.168.75.134:9003;
     }
     server {
         listen 8083;
         server_name localhost;
         location /{
             proxy_pass http://backend;
         }
     }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    此时需要将9003端口的访问禁止掉来模拟下唯一能对外提供访问的服务宕机以后,backup的备份服务器就要开始对外提供服务,此时为了测试验证,我们需要使用防火墙来进行拦截。
    介绍一个工具firewall-cmd,该工具是Linux提供的专门用来操作firewall的。
    查询防火墙中指定的端口是否开放

     firewall-cmd --query-port=9001/tcp
    
    • 1

    如何开放一个指定的端口

     firewall-cmd --permanent --add-port=9002/tcp
    
    • 1

    批量添加开发端口

     firewall-cmd --permanent --add-port=9001-9003/tcp
    
    • 1

    如何移除一个指定的端口

     firewall-cmd --permanent --remove-port=9003/tcp
    
    • 1

    重新加载

     firewall-cmd --reload
    
    • 1

    其中
    --permanent表示设置为持久
    --add-port表示添加指定端口
    --remove-port表示移除指定端口

    max_conns

    max_conns=number:用来设置代理服务器同时活动链接的最大数量,默认为0,表示不限制,使用该配置可以根据后端服务器处理请求的并发量来进行设置,防止后端服务器被压垮。

    max_fails和fail_timeout

    max_fails=number:设置允许请求代理服务器失败的次数,默认为1。
    fail_timeout=time:设置经过max_fails失败后,服务暂停的时间,默认是10秒。

    upstream backend{
    	server 192.168.75.134:9001 down;
    	server 192.168.75.134:9002 backup;
    	server 192.168.75.134:9003 max_fails=3 fail_timeout=15;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    5.4 负载均衡策略

    介绍完Nginx负载均衡的相关指令后,我们已经能实现将用户的请求分发到不同的服务器上,那么除了采用默认的分配方式以外,我们还能采用什么样的负载算法?
    Nginx的upstream支持如下六种方式的分配算法,分别是:

    算法名称说明
    轮询默认方式
    weight权重方式
    ip_hash依据ip分配方式
    least_conn依据最少连接方式
    url_hash依据URL分配方式
    fair依据响应时间方式

    轮询

    是upstream模块负载均衡默认的策略。每个请求会按时间顺序逐个分配到不同的后端服务器。轮询不需要额外的配置。

     upstream backend{
         server 192.168.75.134:9001 weight=1;
         server 192.168.75.134:9002;
         server 192.168.75.134:9003;
     }
     server {
         listen 8083;
         server_name localhost;
         location /{
             proxy_pass http://backend;
         }
     }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    weight加权[加权轮询]

    weight=number:用来设置服务器的权重,默认为1,权重数据越大,被分配到请求的几率越大;该权重值,主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的,所有此策略比较适合服务器的硬件配置差别比较大的情况。

     upstream backend{
         server 192.168.75.134:9001 weight=10;
         server 192.168.75.134:9002 weight=5;
         server 192.168.75.134:9003 weight=3;
     }
     server {
         listen 8083;
         server_name localhost;
         location /{
             proxy_pass http://backend;
         }
     }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    ip_hash

    当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。这样,当来自某一个IP的用户在后端Web服务器A上登录后,在访问该站点的其他URL,能保证其访问的还是后端web服务器A。

    语法ip_hash;
    默认值
    位置upstream
     upstream backend{
         ip_hash;
         server 192.168.75.134:9001;
         server 192.168.75.134:9002;
         server 192.168.75.134:9003;
     }
     server {
         listen 8083;
         server_name localhost;
         location /{
             proxy_pass http://backend;
         }
     }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    需要额外多说一点的是使用ip_hash指令无法保证后端服务器的负载均衡,可能导致有些后端服务器接收到的请求多,有些后端服务器接收的请求少,而且设置后端服务器权重等方法将不起作用。
    image.png

    least_conn

    最少连接,把请求转发给连接数较少的后端服务器。轮询算法是把请求平均的转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。

    upstream backend{
    	least_conn;
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    	server 192.168.75.134:9003;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    此负载均衡策略适合请求处理时间长短不一造成服务器过载的情况。
    image.png

    url_hash

    按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再此收到请求,就可以从缓存中读取。

    upstream backend{
    	hash $request_uri;
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    	server 192.168.75.134:9003;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    访问如下地址:

    http://192.168.75.131:8083/a
    http://192.168.75.131:8083/b
    http://192.168.75.131:8083/c
    http://192.168.75.131:8083/d
    
    C:\Users\zengqfa>curl http://192.168.75.131:8083/a
    <h1>192.168.75.134:9002</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8083/b
    <h1>192.168.75.134:9003</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8083/c
    <h1>192.168.75.134:9002</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8083/d
    <h1>192.168.75.134:9001</h1>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    image.png

    fair

    fair采用的不是内建负载均衡使用的轮换的均衡算法,而是可以根据页面大小、加载时间长短智能的进行负载均衡。那么如何使用第三方模块的fair负载均衡策略。

    upstream backend{
    	fair;
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    	server 192.168.75.134:9003;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13

    但是如何直接使用会报错,因为fair属于第三方模块实现的负载均衡。需要添加nginx-upstream-fair,如何添加对应的模块:

    1. 下载nginx-upstream-fair模块
    下载地址为:
    https://github.com/gnosek/nginx-upstream-fair 
    
    • 1
    • 2
    1. 将下载的文件上传到服务器并进行解压缩
    unzip nginx-upstream-fair-master.zip 
    
    • 1
    1. 重命名资源
    mv nginx-upstream-fair-master fair 
    
    • 1
    1. 使用./configure命令将资源添加到Nginx模块中
    ./configure --add-module=/root/fair 
    
    • 1
    1. 编译
    make 
    
    • 1

    编译可能会出现如下错误,ngx_http_upstream_srv_conf_t结构中缺少default_port
    image.png

    in_port_t	   default_port
    
    • 1

    image.png

    1. 更新Nginx

    6.1 将sbin目录下的nginx进行备份

    mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginxold
    
    • 1


    6.2 将安装目录下的objs中的nginx拷贝到sbin目录

    cd objs
    cp nginx /usr/local/nginx/sbin
    
    • 1
    • 2


    6.3 更新Nginx

    cd ../
    make upgrade 
    
    • 1
    • 2
    1. 编译测试使用Nginx

    上面介绍了Nginx常用的负载均衡的策略,有人说是5种,是把轮询和加权轮询归为一种,也有人说是6种。那么在咱们以后的开发中到底使用哪种,这个需要根据实际项目的应用场景来决定的。

    5.5 负载均衡案例

    案例一:对所有请求实现一般轮询规则的负载均衡
    upstream backend{
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    	server 192.168.75.134:9003;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    案例二:对所有请求实现加权轮询规则的负载均衡
    upstream backend{
    	server 192.168.75.134:9001 weight=7;
    	server 192.168.75.134:9002 weight=5;
    	server 192.168.75.134:9003 weight=3;
    }
    server {
    	listen 8083;
    	server_name localhost;
    	location /{
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12

    案例三:对特定资源实现负载均衡

    服务端[192.168.75.134]:

    server {
            listen          9001;
            server_name     localhost;
            default_type text/html;
            return 200 '

    192.168.75.134:9001

    '; } server { listen 9002; server_name localhost; default_type text/html; return 200 '

    192.168.75.134:9002

    '; } server { listen 9003; server_name localhost; default_type text/html; return 200 '

    192.168.75.134:9003

    '; } server { listen 9004; server_name localhost; default_type text/html; return 200 '

    192.168.75.134:9004

    '; }
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22
    • 23
    • 24

    客户端[192.168.75.131]:

    upstream videobackend{
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    }
    upstream filebackend{
    	server 192.168.75.134:9003;
    	server 192.168.75.134:9004;
    }
    server {
    	listen 8084;
    	server_name localhost;
    	location /video/ {
    		proxy_pass http://videobackend;
    	}
    	location /file/ {
    		proxy_pass http://filebackend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    测试:

    C:\Users\zengqfa>curl http://192.168.75.131:8084/video/
    <h1>192.168.75.134:9002</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8084/video/
    <h1>192.168.75.134:9001</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8084/file/
    <h1>192.168.75.134:9004</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8084/file/
    <h1>192.168.75.134:9003</h1>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    案例四:对不同域名实现负载均衡

    修改hosts文件:

    192.168.75.131 www.slfxitem.cn
    192.168.75.131 www.slfxorder.cn
    
    • 1
    • 2
    upstream itembackend{
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    }
    upstream orderbackend{
    	server 192.168.75.134:9003;
    	server 192.168.75.134:9004;
    }
    server {
    	listen	8085;
    	server_name www.slfxitem.cn;
    	location / {
    		proxy_pass http://itembackend;
    	}
    }
    server {
    	listen	8086;
    	server_name www.slfxorder.cn;
    	location / {
    		proxy_pass http://orderbackend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20
    • 21
    • 22

    测试:

    C:\Users\zengqfa>curl www.slfxitem.cn:8085
    <h1>192.168.75.134:9001</h1>
    C:\Users\zengqfa>curl www.slfxitem.cn:8085
    <h1>192.168.75.134:9002</h1>
    C:\Users\zengqfa>curl www.slfxorder.cn:8086
    <h1>192.168.75.134:9003</h1>
    C:\Users\zengqfa>curl www.slfxorder.cn:8086
    <h1>192.168.75.134:9004</h1>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    案例五:实现带有URL重写的负载均衡
    upstream backend{
    	server 192.168.75.134:9001;
    	server 192.168.75.134:9002;
    	server 192.168.75.134:9003;
    }
    server {
    	listen	8087;
    	server_name localhost;
    	location /file/ {
    		rewrite ^(/file/.*) /server/$1 last;
    	}
    	location /server {
    		proxy_pass http://backend;
    	}
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15

    测试:

    C:\Users\zengqfa>curl http://192.168.75.131:8087/file/
    <h1>192.168.75.134:9001</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8087/file/
    <h1>192.168.75.134:9002</h1>
    C:\Users\zengqfa>curl http://192.168.75.131:8087/file/
    <h1>192.168.75.134:9003</h1>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    6、Nginx四层负载均衡

    Nginx在1.9之后,增加了一个stream模块,用来实现四层协议的转发、代理、负载均衡等。stream模块的用法跟http的用法类似,允许我们配置一组TCP或者UDP等协议的监听,然后通过proxy_pass来转发我们的请求,通过upstream添加多个后端服务,实现负载均衡。
    四层协议负载均衡的实现,一般都会用到LVS、HAProxy、F5等,要么很贵要么配置很麻烦,而Nginx的配置相对来说更简单,更能快速完成工作。
    添加stream模块的支持
    Nginx默认是没有编译这个模块的,需要使用到stream模块,那么需要在编译的时候加上–with-stream。
    完成添加–with-stream的实现步骤:

    》将原有/usr/local/nginx/sbin/nginx进行备份
    》拷贝nginx之前的配置信息
    》在nginx的安装源码进行配置指定对应模块  ./configure --with-stream
    》通过make模板进行编译
    》将objs下面的nginx移动到/usr/local/nginx/sbin下
    》在源码目录下执行  make upgrade进行升级,这个可以实现不停机添加新模块的功能
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    6.1 Nginx四层负载均衡的指令

    stream指令

    该指令提供在其中指定流服务器指令的配置文件上下文。和http指令同级。

    语法stream { … }
    默认值
    位置main

    upstream指令

    该指令和http的upstream指令是类似的。

    6.2 四层负载均衡的案例

    需求分析

    image.png

    实现步骤

    (1)准备Redis服务器,在一条服务器上准备两个Redis,端口分别是6379,6378
    1.下载redis的安装包

    wget http://download.redis.io/releases/redis-5.0.4.tar.gz
    
    • 1

    2.将安装包进行解压缩

    tar -xzvf redis-5.0.4.tar.gz
    
    • 1

    3.进入redis的安装包

     cd redis-5.0.4
    
    • 1

    4.使用make和install进行编译和安装

     mkdir -p /usr/local/redis/redis01
     make PREFIX=/usr/local/redis/redis01 install
    
    • 1
    • 2

    5.拷贝redis配置文件redis.conf到/usr/local/redis/redis01/bin目录中

     cp redis.conf   /usr/local/redis/redis01/bin
    
    • 1

    6.修改redis.conf配置文件

    cd  /usr/local/redis/redis01/bin
    
    port  6379      #redis的端口
    daemonize yes   #后台启动redis
    bind 0.0.0.0  #允许远程客户端连接redis
    
    • 1
    • 2
    • 3
    • 4
    • 5

    7.将redis01复制一份为redis02

    cd /usr/local/redis
    cp -r redis01 redis02
    
    • 1
    • 2

    8.将redis02文件文件夹中的redis.conf进行修改

    cd redis02/bin/
    
    port  6378      #redis的端口
    daemonize yes   #后台启动redis
    bind 0.0.0.0  #允许远程客户端连接redis
    
    • 1
    • 2
    • 3
    • 4
    • 5

    9.分别启动,即可获取两个Redis.并查看

     ./redis-server redis.conf
     
    [root@k8snode2 bin]# ps -ef|grep redis
    root      90408      1  0 16:31 ?        00:00:00 ./redis-server 127.0.0.1:6378
    root      90688      1  0 16:32 ?        00:00:00 ./redis-server 127.0.0.1:6379
    root      90693   3907  0 16:32 pts/2    00:00:00 grep --color=auto redis
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6

    使用Nginx将请求分发到不同的Redis服务器上。
    (2)准备Tomcat服务器.
    1.上传tomcat的安装包,apache-tomcat-8.5.27.tar.gz
    2.将安装包进行解压缩

     tar -zxf apache-tomcat-8.5.27.tar.gz
    
    • 1

    3.进入tomcat的bin目录

     cd apache-tomcat-8.5.27/bin
     chmod 777 *.sh
     sudo sh startup.sh
    
    • 1
    • 2
    • 3

    查看首页:http://192.168.75.134:8080/
    在代理服务器[ 192.168.75.131]上的nginx.conf进行配置

    stream {
      upstream redisbackend {
        server 192.168.75.134:6379;
        server 192.168.75.134:6378;
      }
      upstream tomcatbackend {
        server 192.168.75.134:8080;
      }
      server {
        listen  81;
        proxy_pass redisbackend;
      }
      server {
        listen  82;
        proxy_pass tomcatbackend;
      }
    }
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17

    访问测试redis
    准备数据:连接两台redis,分别对同一个key设置不同的值

    F:\Redis-x64-5.0.14>redis-cli -h 192.168.75.134 -p 6378
    192.168.75.134:6378> set slfx 6378
    OK
    192.168.75.134:6378> ^C
    F:\Redis-x64-5.0.14>redis-cli -h 192.168.75.134 -p 6379
    192.168.75.134:6379> set slfx 6379
    OK
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    通过redis连接

    F:\Redis-x64-5.0.14>redis-cli -h 192.168.75.131 -p 81
    192.168.75.131:81> get slfx
    "6379"
    192.168.75.131:81> ^C
    F:\Redis-x64-5.0.14>redis-cli -h 192.168.75.131 -p 81
    192.168.75.131:81> get slfx
    "6378"
    192.168.75.131:81>
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8

    访问测试tomcat:http://192.168.75.131:82/
    image.png

  • 相关阅读:
    [云原生] k8s之存储卷
    【服务器数据恢复】断电导致存储raid6阵列瘫痪的数据恢复案例
    SpringBoot配置SpringApplication
    Python自动化测试selenium指定截图文件名方法
    看了我的 RPC 实战,同事拍案叫绝
    WEB API学习笔记1
    面向6G的大规模MIMO通信感知一体化:现状与展望
    java计算机毕业设计-旅游产品销售管理-演示录像2020源码+数据库+系统+lw文档+mybatis+运行部署
    JAVA后端服务端与移动端客户端高精度时间同步思路
    一文详解多模态认知智能
  • 原文地址:https://blog.csdn.net/zengqingfa123/article/details/127413694