0
点赞
收藏
分享

微信扫一扫

负载均衡与高可用

落花时节又逢君to 2022-12-04 阅读 178

       本次负载均衡与高可用分别实验。

        负载均衡实验目标:本次实验分为两个部分;1.应用层负载均衡:客户端通过代理服务器访问web1和web2。2.网络层负载均衡:客户端通过代理服务器远程连接web1和mysql服务器。

拓扑图如下:

 

负载均衡

理论部分

1. 代理和负载均衡:

        代理负责把连接请求直接转发到后台某个web节点。

        负载均衡负责把请求使用某种调度算法分散发布给后台所有web节点。

2. 负载均衡(Load Balance),简写LB

        面对高并发web请求,使用各种调度算法(rr,wrr,lc,wlc,ip_hash),分散转发到后台web群集节点,提高数据吞吐量,高容灾。

        (ip_hash是根据用户请求过来的ip,然后映射成hash值,然后分配到一个特定的服务器里面)。

3. 常见的LB

        软件:lvs  nginx   haproxy   

        硬件:F5

        云LB:阿里云SLB    腾讯云CLB   青云QLB   ucloud ULB

4. 实现方式

        四层负载:ip地址    tcp/udp  端口号

        七层负载:HTTP  https  ftp   SMTP

应用层负载均衡

拓扑图如下:

  

环境搭建

        三台服务器均需要安装nginx并启动,下面以一台为例。

[root@lb1 ~]# rpm -ivh /media/nginx-rpm/* --nodeps --force

[root@lb1 ~]# systemctl start nginx

[root@lb1 ~]# systemctl enable nginx

代理服务器配置

1. 编辑配置文件

[root@lb1 ~]# cd /etc/nginx/conf.d/

[root@lb1 conf.d]# ls

default.conf

[root@lb1 conf.d]# rm -rf default.conf  //删除默认配置文件

[root@lb1 conf.d]# vim lb.conf //新建配置文件

upstream web {

        server 192.168.1.5:80;

        server 192.168.1.6:80;

        }

server {

        listen 80;

        server_name www.test.com;



        location / {

                proxy_pass http://web; //代理web模块中的主机

                include nginx_params; //包含nginx_params中的配置文件,该配置文件表示创建优化项,网站配置文件直接调用。也可以把文件中的内容写在当前行,但稍显紊乱。

                }

        }

2. 创建优化项文件,网站配置文件直接调用(选用,但推荐使用)。

[root@lb1 conf.d]# vim /etc/nginx/nginx_params

proxy_set_header Host $http_host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;



proxy_connect_timeout 30;

proxy_send_timeout 60;

proxy_read_timeout 60;



proxy_buffering on;

proxy_buffer_size 32k;

proxy_buffers 4 128k;

[root@lb1 conf.d]# systemctl restart nginx

3. nginx_params参数介绍

4. 负载均衡后端状态

例如:

        下面配置选做,了解参数即可。修改配置文件,可加多个参数。

[root@lb1 ~]# vim /etc/nginx/conf.d/lb1.conf

修改为:

upstream web_cluster {

        server 192.168.1.5:80 max_fails=2 fail_timeout=10s max_conns=1;  

        server 192.168.1.6:80 down; //一般用于停机维护

}

web服务器配置

1. web1配置

        web1配置和web2配置基本相同,配置web1后可以使用scp命令复制到web2,但实验过程中网页内容需要区分。成产环境中的网页内容一般都是一致的(例如使用nfs或gfs等)。

[root@web1 ~]# cd /etc/nginx/conf.d/

[root@web1 conf.d]# rm -rf default.conf 

[root@web1 conf.d]# vim web.conf

server {

        listen 80;

        server_name www.web.com;                 //本次不需要使用虚拟主机,域名随意填写即可

        location / {

                root /www;

                index index.html;

                }

        }

[root@web1 conf.d]# nginx -t

[root@web1 conf.d]# mkdir /www //创建网站根目录

[root@web1 conf.d]# echo "192.168.1.5" > /www/index.html //创建网页内容

[root@web1 conf.d]# systemctl restart nginx

2. web2配置

        web1已经配置,scp命令复制过来即可。

[root@web2 ~]# scp -rp root@192.168.1.5:/etc/nginx/* /etc/nginx/

[root@web2 ~]# cd /etc/nginx/conf.d/

[root@web2 conf.d]# ls //查看是否存在nginx默认首页

default.conf  web.conf

[root@web2 conf.d]# rm -rf default.conf //删除nginx默认首页

[root@web2 conf.d]# mkdir /www //创建网站根目录

[root@web2 conf.d]# echo "192.168.1.6" > /www/index.html //创建网页内容

[root@web2 conf.d]# systemctl restart nginx

验证

        客户端访问代理服务器http://192.168.1.4,经过多次刷新可以看到下图页面。如果通过网页访问辨别不出来可以使用命令tail -f /var/log/nginx/access.log辨别。

 

网络层负载均衡

拓扑图如下:

 

环境搭建

        根据上图代理服务器和web1安装nginx和一台mysql数据库,nginx安装以代理服务器为例。注意分清主机名称】

[root@lb1 ~]# rpm -ivh /media/nginx-rpm/* --nodeps --force

[root@lb1 ~]# systemctl start nginx

[root@lb1 ~]# systemctl enable nginx

[root@mysql ~]# rpm -ivh /media/mysql5.6-rpm/* --nodeps --force

[root@mysql ~]# systemctl start mysqld

[root@mysql ~]# systemctl enable mysqld

[root@mysql ~]# mysqladmin -uroot password

New password: //输入新密码

Confirm new password: //再次输入新密码

代理服务器配置

[root@lb1 ~]# vim /etc/nginx/nginx.conf         //将下面字段插入http字段上方

stream {

        upstream sshweb1 {

                server 192.168.1.5:22;

        }

        upstream mysql {

                server 192.168.1.7:3306;

        }



        server {

                listen 5555; //监听5555端口

                proxy_pass sshweb1; //如客户端访问5555端口将指定web1主机

                proxy_connect_timeout 30;

                proxy_timeout 60;

        }

        server {

                listen 7777; //监听7777端口

                proxy_pass mysql; //如客户端访问7777端口将指定mysql主机

                proxy_connect_timeout 30;

                proxy_timeout 60;

        }

}

[root@lb1 ~]# nginx -t

nginx: the configuration file /etc/nginx/nginx.conf syntax is ok

nginx: configuration file /etc/nginx/nginx.conf test is successful

[root@lb1 ~]# systemctl restart nginx

mysql服务器配置

        mysql服务器需要被连接,可以先创建一个库并创建一个新用户。

[root@mysql ~]# mysql -uroot -p123456

//省略部分内容

mysql> create database bbs;

Query OK, 1 row affected (0.00 sec)

mysql> grant all on bbs.* to bbs@'%' identified by '123456';

Query OK, 0 rows affected (0.00 sec)

mysql> exit

Bye

验证

        测试机访问代理服务器,分别使用linux端,xshell端,win端测试

1. 测试连接web1

linux端测试如下:(linux端和xhell端)

 

xshell端测试如下:

 

2. 测试连接数据库

        win端连接数据库测试工具有很多,如SQLyog、navicat等,本次使用SQLyog通过代理服务器连接mysql数据库。win客户端打开SQLyog软件,出现下图所示内容,添加代理服务器IP,mysql用户名密码及端口号点击连接即可。

 

        登录后可以看到刚刚在myslq服务器中创建的库,现在就可以进行编辑查看表了。

 

高可用

        高可用实验目标:本次实验分为两个部分,①在两台lb服务器上搭建nginx和keeplived,实现负载均衡器的高可用。模拟网站服务器损坏,使用客户机访问网站依然正常访问。②解决高可用裂脑问题。

拓扑图如下:

 

理论部分

1. 高可用作用:增加容错性(HA:High availability)

2. 协议:  VRRP(虚拟路由冗余协议) 公有协议  224.0.0.18 

                 HSRP(热备份路由协议)   私有协议,Cisco公司 224.0.0.5 224.0.0.6

3. 高可用软件:

        keepalived:使用vrrp实现多台主机高可用群集

        高可用角色:master 主服务器 、backup 备服务器

4. 高可用裂脑

        高可用节点之间互相失去联系,自认为自己是主服务器,就会出现多主现象,即裂脑现象。

裂脑出现的原因:

        心跳线松动或网卡故障。

        服务器硬件故障,崩溃。

        节点服务器开启防火墙,却没有做vrrp例外。

        nginx服务死掉,不会出现裂脑现象,但整个集群都无法正常运作。

环境搭建

        根据拓扑图安装服务,lb1和lb2都需要安装nginx及keepalived,下面以lb1为例,两台web服务以web1为例。

lb搭建

[root@lb1 ~]# rpm -ivh /media/nginx-rpm/* --nodeps --force

[root@lb1 ~]# yum -y install keepalived

[root@lb1 ~]# systemctl start nginx keepalived

[root@lb1 ~]# systemctl enable nginx keepalived

web搭建

[root@web1 ~]# rpm -ivh /media/nginx-rpm/* --nodeps --force

[root@web1 ~]# systemctl start nginx

[root@web1 ~]# systemctl enable nginx

负载均衡高可用

lb1主要服务器配置

1. 通过搭建实现两台负载均衡器的高可用,过多不在介绍,详情请查看代理服务器配置​​​​​​​

[root@lb1 ~]# cd /etc/nginx/conf.d/

[root@lb1 conf.d]# rm -rf default.conf 

[root@lb1 conf.d]# vim lb.conf

upstream web {

        server 192.168.1.6:80;

        server 192.168.1.7:80;

        }

server {

        listen 80;

        server_name www.lb.com;

        location / {

        proxy_pass http://web;

        include nginx_params;

                }

        }

[root@lb1 conf.d]# vim /etc/nginx/nginx_params

proxy_set_header Host $http_host;

proxy_set_header X-Real-IP $remote_addr;

proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;



proxy_connect_timeout 30;

proxy_send_timeout 60;

proxy_read_timeout 60;



proxy_buffering on;

proxy_buffer_size 32k;

proxy_buffers 4 128k;

[root@lb1 conf.d]# systemctl restart nginx

2. 修改keepalived配置文件

[root@lb1 ~]# vim /etc/keepalived/keepalived.conf

global_defs {

//省略部分内容

router_id lb1 //该配置为主机名称,

vrrp_strict //删除此行内容,路由器中vrrp的一些协议,linux中没有所以需要删掉

//省略部分内容

}

vrrp_instance VI_1 {

    state MASTER //编辑为主要服务器

    interface ens33 //修改网卡为ens33

    virtual_router_id 51

    priority 100 //选举优先级,100为最高

    advert_int 1

    authentication { //验证模块不需要修改,主备需相同

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        192.168.1.200 //添加漂移地址

    }

}

[root@lb1 ~]# systemctl restart keepalived

lb2备份服务器配置

        lb1服务器已经配置了网页通过scp命令复制过来即可。

[root@lb2 ~]# scp -rp root@192.168.1.4:/etc/nginx/* /etc/nginx

[root@lb2 ~]# cd /etc/nginx/conf.d/

[root@lb2 conf.d]# ls

default.conf  lb.conf

[root@lb2 conf.d]# rm -rf default.conf //删除默认网页

[root@lb2 conf.d]# systemctl restart nginx

web配置

        web1和web2配置相同下面以web1为例,相关配置参考web服务器配置

[root@web1 ~]# cd /etc/nginx/conf.d/

[root@web1 conf.d]# rm -rf default.conf 

[root@web1 conf.d]# vim web.conf

server {

        listen 80;

        server_name www.web.com; //本次不需要使用虚拟主机,域名随意填写即可

        location / {

                root /www;

                index index.html;

                }

        }

[root@web1 conf.d]# nginx -t

[root@web1 conf.d]# mkdir /www //创建网站根目录

[root@web1 conf.d]# echo "192.168.1.6" > /www/index.html //创建网页内容,web2网页内容设置为192.168.1.7

[root@web1 conf.d]# systemctl restart nginx

验证

        客户端访问http://192.168.1.200,刷新两次可以看到web1和web2的网站内容。

 

        测试关掉lb1主机访问漂移地址,查看lb2的主机是否获取漂移地址。

 

        通过上图可以看到漂移地址已经到lb2主机上,访问http://192.168.1.200是否能正常访问。

 

        开启lb1主机,查看漂移地址是否又回到本机中。

 

 

        经过上面的测试已经配置成功负载均衡的高可用功能,下面将进行解决nginx故障问题详情请看理论部分

nginx故障问题

        关闭lb1服务器的nginx服务并访问漂移地址,发现漂移地址依旧在lb1上故而服务访问不了网站。下面就解决lb1服务器nginx故障造成无法访问的问题。

[root@lb1 ~]# systemctl stop nginx 

 

[root@lb1 ~]# systemctl start nginx

[root@lb1 ~]# vim /sh/check_nginx_proxy.sh

#!/bin/bash

killall -0 nginx

if [ $? -ne 0 ];then

        systemctl stop keepalived

fi

[root@lb1 ~]# chmod +x /sh/check_nginx_proxy.sh

[root@lb1 ~]# vim /etc/keepalived/keepalived.conf 

! Configuration File for keepalived



global_defs {

//省略部分内容

   router_id lb1

//省略部分内容

}

vrrp_script check_nginx_proxy { //添加模块内容

        script "/sh/check_nginx_proxy.sh"

        interval 2

        weight 5

}

    state MASTER

    interface ens33

    virtual_router_id 51

    priority 100

    advert_int 1

    authentication {

        auth_type PASS

        auth_pass 1111

    }   

    virtual_ipaddress {

        192.168.1.200

    }   

    track_script { //在实例内启用脚本模块

        check_nginx_proxy

    }   

}  

[root@lb1 ~]# systemctl restart keepalived

        模拟损坏nginx,测试结果。

[root@lb1 ~]# systemctl stop nginx

        分别再lb1和lb2上查看漂移地址,可以看到lb1上nginx损毁后,漂移地址已经到lb2上。

 

 

举报

相关推荐

0 条评论