1、负载均衡概述
早期的网站流量和业务功能都比较简单,单台服务器足以满足基本的需求,但是随着互联网的发展,业务流量越来越大并且业务逻辑也跟着越来越复杂,单台服务器的性能及单点故障问题就凸显出来了,因此需要多台服务器进行性能的水平扩展及避免单点故障出现,那么如何将不同用户的请求流量分发到不同的服务器上呢?
2、负载均衡的原理及处理流程
系统的扩展可以分为纵向扩展和横向扩展。
纵向扩展是从单机的角度出发,通过增加系统的硬件处理能力来提升服务器的处理能力;横向扩展是通过添加机器来满足大型网站服务的处理能力。
这里面涉及到两个重要的角色分别是“应用集群”和“负载均衡器”。
应用集群:将同一应用部署到多台机器上,组成处理集群,接收负载均衡设备分发的请求,进行处理并返回响应的数据。
负载均衡器:将用户访问的请求根据对应的负载均衡算法,分发到集群中的一台服务器进行处理。
3、负载均衡的作用
解决服务器的高并发压力,提高应用程序的处理性能;
提供故障转移,实现高可用;
通过添加或减少服务器数量,增强网站的可扩展性;
在负载均衡器上进行过滤,可以提高系统的安全性。
4、负载均衡常用的处理方式
4.1、方式1:用户手动选择
这种方式比较原始,主要实现的方式就是在网站主页上提供不同线路、不同服务器链接方式,让用户来选择自己访问的具体服务器,来实现负载均衡。
4.2、方式2:DNS轮询方式
DNS:域名系统(服务)协议(DNS)是一种分布式网络目录服务,主要用于域名与IP地址的相互转换。
大多数域名注册商都支持对同一个主机名添加多条A记录(A记录就是IP地址),这就是DNS轮询,DNS服务器将解析请求按照A记录的顺序,随机分配到不同的IP上,这样就能完成简单的负载均衡。DNS轮询的成本非常低,在一些不重要的服务器,经常被使用。
验证:
ping www.baidu.com
清空本地的dns缓存
ipconfig/flushdns
我们发现使用DNS来实现轮询,不需要投入过多的成本,虽然DNS轮询成本低廉,但是DNS负载均衡存在明显的缺点:
可靠性低:假设一个域名DNS轮询多台服务器,如果其中的一台服务器发生故障,那么所有的访问该服务器的请求将不会有所回应,及时你将该服务器的IP从DNS中去掉,但是由于各大宽带接入商将众多的DNS存放在缓存中,以节省访问时间,导致DNS不会实时更新,所以DNS轮询一定程度上解决了负载均衡问题,但是却存在可靠性不高的缺点。
负载均衡不均衡:DNS负载均衡采用的是简单的轮询负载算法,不能区分服务器的差异,不能反映服务器的当前运行状态,不能做到为性能好的服务器多分配请求,另外本地计算机也会缓存已经解析的域名到IP地址的映射,这也会导致使用该DNS服务器的用户在一定时间内访问的是同一台Web服务器,从而引发Web服务器的负载不均衡。
负载不均衡会导致某几台服务器符合很低,而另外几台服务器负荷却很高,处理请求的速度慢,配置高的服务器分配到的请求少,而配置低的服务器分配到的请求多。
4.3、四/七层负载均衡
OSI(Open System Interconnection,开放式系统互联模型)是由国际标准化组织ISO指定的一个不基于具体机型、操作系统或公司的网络体系结构。该模型将网络通信的工作分为七层。
OSI七层模型;
7、应用层:为应用程序提供网络服务;
6、表示层:对数据进行格式化、编码、加密、压缩等操作;
5、会话层:建立、维护、管理会话连接;
4、传输层:建立、维护、管理端到端的连接,常见的有TCP/UDP;
3、网络层:IP寻址和路由选择;
2、数据链路层:控制网络层与物理层之间的通信;
1、物理层:比特流传输。
所谓的四层负载均衡指的是OSI七层模型中的传输层,主要是基于IP+PORT的负载均衡:
实现四层负载均衡的方式:
硬件:F5、BIG-IP、Radware等;
软件:LVS、Nginx、Hayproxy等。
所谓的七层负载均衡指的是在应用层,主要是基于虚拟的URL或主机IP的负载均衡。
实现七层负载均衡的方式:
软件:Nginx、Hayproxy等。
四层和七层负载均衡的区别:
四层负载均衡数据包是在底层就进行了分发,而七层负载均衡数据包则在最顶端进行分发,所以四层负载均衡的效率比七层负载均衡的效率要高;
四层负载均衡不识别域名,而七层负载均衡识别域名。
除了四层和七层负载均衡以外其实还有二层、三层负载均衡。二层负载均衡是在数据链路层基于MAC地址来实现负载均衡,三层是在网络层一般采用虚拟IP地址的方式实现负载均衡。
实际环境采用的方式:四层负载(LVS)+七层负载(Nginx)。
5、Nginx七层负载均衡
Nginx要实现七层负载均衡需要用到proxy_pass代理模块配置。Nginx默认安装支持这个模块,我们不需要再做任何处理。Nginx的负载均衡是在Nginx的反向代理基础上把用户的请求根据指定的算法分发到一组【upstream虚拟服务池】。
5.1、Nginx七层负载均衡的指令
5.1.1、upstream指令
upstream:该指令是用来定义一组服务器,它们可以使监听不同端口的服务器,并且也可以是同时监听TCP和Unix socket的服务器。服务器可以指定不同的权重,默认为1.
语法 upstream name{...}
默认值 ——
位置 http
5.1.2、server指令
server:该指令用来指定后端服务器的名称和一些参数,可以使用域名、IP、端口或者unix socket。
语法 server name [parameters];
默认值 ——
位置 upstream
5.2、Nginx负载均衡配置
# 服务器1
server {
listen 9001;
server_name localhost;
default_type text/html;
location / {
return 200 '<h1>server:9001</h1>';
}
}
# 服务器2
server {
listen 9002;
server_name localhost;
default_type text/html;
location / {
return 200 '<h1>server:9002</h1>';
}
}
# 服务器3
server {
listen 9003;
server_name localhost;
default_type text/html;
location / {
return 200 '<h1>server:9003</h1>';
}
}
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.3、Nginx负载均衡状态
代理服务器在负责均衡调度中的状态有以下几个:
状态 概述
down 当前的server暂时不参与负载均衡
backup 预留的备份服务器
max_fails 允许请求失败的次数
fail_timeout 经过max_fails次失败后,服务暂停的时间
max_conns 限制最大的接收连接数
5.3.1、状态:down
down:将该服务器标记为永久不可用,那么该代理服务器将不参与负载均衡。
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001 down;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
该状态一般会对需要停机维护的服务器进行设置。
5.3.2、状态:backup
backup:将该服务器标记为备份服务器,当主服务器不可用时,将用来传递请求。
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001 down;
# 9002 作为 9003 的备份服务器
server localhost:9002 backup;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
此时需要将9003端口的访问禁止掉来模拟当唯一能对外提供访问的服务宕机以后,backup的备份服务器就要开始对外提供服务。此时为了测试验证,我们需要使用防火墙进行拦截。
介绍一个工具fire-wall-cmd,该工具是Linux提供的专门用来操作firewall的。
-查询防火墙中指定的端口是否开放
firewall-cmd --query-port=9001/tcp
-开放一个指定的端口
firewwall-cmd --permanent --add-port=9002/tcp
-批量添加开发端口
firewall-cmd --permanent --add-port=9001-9003/tcp
-移除一个指定的端口
firewall-cmd --permanent --remove-port=9003/tcp
-重新加载
firewall-cmd --reload
5.3.3、状态:max_fails
max_fails=numer:设置允许请求代理服务器失败的次数,默认为1.
5.3.4、状态:fail_timeout
fail_timeout=time:设置经过max_fail次失败后,服务暂停的时间,默认是10秒。
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001 down;
# 9002 作为 9003 的备份服务器
server localhost:9002 backup;
server localhost:9003 max_fails=3 fail_timeout=15;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.3.5、状态:max_conns
max_conns=number:用来设置代理服务器同时活动链接的最大数量,默认为0,表示不限制,使用该配置可以根据后端服务器处理请求的并发量来进行设置,防止后端服务器被压垮。
5.4、Nginx负载均衡策略
介绍完Nginx负载均衡的相关指令后,我们已经能实现将用户的请求分发到不同的服务器上,那么除了采用默认的分配方式外,我们还能采用什么样的负载算法?
Nginx的upstream支持如下六种方式的分配算法,分别是:
算法名称 说明
轮询 默认方式
weight 权重方式
ip_hash 依据ip分配方式
least_conn 依据最少连接方式
url_hash 依据URL分配方式
fair 依据响应时间方式
算法名称 | 说明 |
---|---|
轮询 | 默认方式 |
weight | 权重方式 |
ip_hash | 依据ip分配方式 |
least_conn | 依据最少连接方式 |
url_hash | 依据URL分配方式 |
fair | 依据响应时间方式 |
5.4.1、轮询
轮询是upstream模块负载均衡默认的策略,每个请求会按时间顺序逐个被分配到不同的后端服务器。轮询不需要额外的配置。
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.4.2、weight加权(加权轮询)
weight=number:用来设置服务器的权重,默认为1,权重数字越大,被分配到请求的几率越大。该权重值主要是针对实际工作环境中不同的后端服务器硬件配置进行调整的,所有此策略比较适合服务器的硬件配置差别比较大的情况。
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001 weight=10;
server localhost:9002 weight=5;
server localhost:9003 weight=3;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.4.3、ip_hash
当对后端的多台动态应用服务器做负载均衡时,ip_hash指令能够将某个客户端IP的请求通过哈希算法定位到同一台后端服务器上。这样,当来自某一个IP的用户在后端Web服务器A上登录后,再访问该站点的其他URL,能保证其访问的还是后端web服务器A。
语法 ip_hash;
默认值 ——
位置 upstream
# 代理服务器
# 设置服务器组
upstream backend {
ip_hash;
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
注意:使用ip_hash指令无法保证后端服务器的负载均衡,可能导致有些后端服务器接收到的请求多,有些后端服务器接受的请求少,而且设置后端服务器权重等方法将不起作用。
5.4.4、least_conn
least_conn:最少连接,把请求转发给连接数较少的后端服务器。轮询算法是把请求平均地转发给各个后端,使它们的负载大致相同;但是,有些请求占用的时间很长,会导致其所在的后端负载较高。这种情况下,least_conn这种方式就可以达到更好的负载均衡效果。
# 代理服务器
# 设置服务器组
upstream backend {
least_conn;
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
此负载均衡适合请求处理时间长短不一造成服务器过载的情况。
5.4.5、url_hash
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,要配合缓存命中来使用。同一个资源多次请求,可能会到达不同的服务器上,导致不必要的多次下载,缓存命中率不高,以及一些资源时间的浪费。而使用url_hash,可以使得同一个url(也就是同一个资源请求)会到达同一台服务器,一旦缓存住了资源,再次收到请求,就可以从缓存中读取。
# 代理服务器
# 设置服务器组
upstream backend {
hash $request_uri;
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.4.6、fair
fair采用的不是内建负载均衡使用的均衡算法,而是可以根据页面大小、加载时间长短智能地进行负载均衡。那么如何使用第三方模块的fair负载均衡策略?
# 代理服务器
# 设置服务器组
upstream backend {
fair;
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
但是如果直接使用会报错,因为fair属于第三方模块实现的负载均衡。需要添加nginx-upstream-fair,如何添加对应的模块:
下载nginx-upstream-fair模块。
下载地址:
https://github.com/gnosek/nginx-upstream-fair
将下载的文件上传到服务器并进行解压缩。
unzip nginx-upstream-fair-master.zip
重命名资源。
mv nginx-upstream-fair-master fair
使用./configure命令将资源添加到Nginx模块中。
./configure --add-module=/root/fair
编译。
make
-编译可能会出现如下错误:
nginx_http_upstream_srv_conf_t结构中缺少default_port
-解决方案
在Nginx的源码中src/http/nginx_http_upstream.h,找到ngx_http_upstream_srv_conf_s,在
模块中添加default_port属性:
in_port_t default_port
然后再进行make。
更新Nginx。
1、将sbin目录下的nginx进行备份
mv /usr/local/nginx/sbin/nginx /usr/local/nginx/sbin/nginxold
2、将安装目录下的objs中的nginx拷贝到sbin目录
cd objs
cp nginx /usr/local/nginx/sbin
3、更新
cd ../
make upgrade
编译测试使用Nginx。
5.5、Nginx七层负载均衡的案例
5.5.1、案例1——对所有请求实现一般轮询规则的负载均衡
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001;
server localhost:9002;
server localhost:9003;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.5.2、案例2——对所有请求实现加权轮询规则的负载均衡
# 代理服务器
# 设置服务器组
upstream backend {
server localhost:9001 weight=7;
server localhost:9002 weight=5;
server localhost:9003 weight=3;
}
server {
listen 8080;
server_name localhost;
location / {
# backend 就是服务器组的名称
proxy_pass http://backend/;
}
}
5.5.3、案例3——对特定资源实现负载均衡
# 代理服务器
# 设置服务器组
upstream videobackend {
server localhost:9001;
server localhost:9002;
}
upstream filebackend {
server localhost:9003;
server localhost:9004;
}
server {
listen 8080;
server_name localhost;
location /video/ {
# backend 就是服务器组的名称
proxy_pass http://videobackend;
}
location /file/ {
proxy_pass http://filebackend;
}
}
5.5.4、案例4——对不同域名实现负载均衡
# 代理服务器
# 设置服务器组
upstream aaabackend {
server 192.168.200.146:9001;
server 192.168.200.146:9002;
}
upstream bbbbackend {
server 192.168.200.146:9003;
server 192.168.200.146:9004;
}
server {
listen 8080;
server_name www.aaa.com;
location / {
proxy_pass http://aaabackend;
}
}
server {
listen 8081;
server_name www.bbb.com;
location / {
proxy_pass http://bbbbackend;
}
}
5.5.5、案例5——实现带有URL重写的负载均衡
# 代理服务器
# 设置服务器组
upstream backend {
server 192.168.200.146:9001;
server 192.168.200.146:9002;
}
server {
listen 8080;
server_name localhost;
# URL重写
location /file/ {
rewrite ^(/file/.*) /server/$1 last;
}
location /server {
proxy_pass http:backend;
}
}
6、Nginx四层负载均衡
Nginx在1.9之后,增加了一个stream模块,用来实现四层协议的转发、代理、负载均衡等。stream模块的用法跟http的用法类似,允许我们配置一组TCP或者UDP等协议的监听,然后通过proxy_pass来转发我们的请求,通过upstream添加多个后端服务,实现负载均衡。
四层协议负载均衡的实现,一般都会用到LVS、HAProxy、F5等,要么很贵要么配置很麻烦,而Nginx的配置相对来说更简单,更能快速完成工作。
6.1、添加stream模块的支持
Nginx默认是没有编译这个模块的,需要使用到stream模块,那么需要在编译的时候加上--with-stream。
完成添加--with-stream的实现步骤:
将原有/usr/local/nginx/sbin/nginx进行备份;
拷贝nginx之前的配置信息;
在nginx的安装源码进行配置指定对应模块 ./configure --with-stream
通过make模板进行编译;
将objs下面的nginx移动到/usr/local/nginx/sbin下;
在源码目录下执行 make upgrade 进行升级,这个可以实现不停机添加新模块的功能
6.2、Nginx四层负载均衡的指令
6.2.1、stream指令
stream:该指令提供在其中指定流服务器的配置文件上下文。和http指令同级。
语法 stream {...}
默认值 ——
位置 main
6.2.2、upstream指令
upstream:该指令和http的upstream指令是类似的。
6.3、Nginx四层负载均衡的案例
需求分析:
实现步骤:
准备Redis服务器,在一台服务器(192.168.200.146)上准备三个Redis,端口分别是9379,9378,9377;
1、上传redis的安装包
redis-4.0.14.tar.gz
2、将安装包进行解压缩
tar -zxf -redis-4.0.14.tar.gz
3、进入redis的安装包
cd redis-4.0.14
4、使用make和install进行编译和安装
make PREFIX=/usr/local/redis/redis01 install
5、拷贝redis配置文件redis.conf到/usr/local/redis/redis01/bin目录中
cp redis.conf /usr/local/redis/redis01/bin
6、修改redis.conf配置文件
port 9379; # redis 的端口
deamonize yes; # 后台启动redis
7、将redis01复制两份为redis02,redis03
cp -r -redis01/ redis02
8、修改redis02,redis03的配置redis.conf配置文件
port 9378; # redis 的端口
deamonize yes; # 后台启动redis
port 9377; # redis 的端口
deamonize yes; # 后台启动redis
9、修改3个redis的redis.conf中如下内容:
bind 127.0.0.1 ==> bind 0.0.0.0
10、分别启动,即可获取3个redis,并查看
ps -ef | grep redis
使用Nginx将请求分发到不同的Redis服务器上。
准备Tomcat服务器。
1、上传tomcat的安装包,apache-tomcat-8.5.56.tar.gz
2、将安装包进行解压缩
tar -zxf apache-tomcat-8.5.56.tar.gz
3、进入tomcat的bin目录
cd apache-tomcat-8.5.56/bin
./startup
# 配置nginx四层负载均衡相关内容
stream {
# redis 服务器群组
upstream redisbackend {
server 192.168.200.146:9379;
server 192.168.200.146:9378;
server 192.168.200.146:9377;
}
# 监听并转发至redis服务器组
server {
listen 81;
# server_name 指令在该块不能使用
# redisbackend 为服务群组的名称
proxy_pass redisbackend;
}
# tomcat 服务器群组
upstream tomcatbackend {
server 192.168.200.146:8080;
}
# 监听并转发至tomcat服务器
server {
listen 82;
proxy_pass tomcatbackend;
}
}
推荐本站淘宝优惠价购买喜欢的宝贝:
本文链接:https://hqyman.cn/post/4111.html 非本站原创文章欢迎转载,原创文章需保留本站地址!
休息一下~~