LVS的原理很重要,很重要。每一个知识点都要做到熟记与脑,谨记于心,张口就来。
LVS是Linux Virtual Server的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。
很好的可管理性(Manageability)
………..
总之就是一个字–好(大拇指)
闲话不多讲,先从lvs的模式开始–>
lvs四种类型:
1.lvs-nat
2.lvs-dr
3.lvs-tun
4.lvs-fullnat
前三个是标准类型 后一种后加入的 可能内核默认不支持 (不要问我为啥不支持,我现在不知道)
lvs-nat :修改请求报文的目标ip或者目标端口 多目标的DNAT。
为挑选出某些RS的RIP和PORT来实现
nat特点:
1、各RS的IP应该指向DIP(目标IP)
2、请求或者响应报文都要经由director(调度器)转发;
3、支持端口映射
4、VS必须为linux系统 RS任意
这个模式存在一个问题:因为是请求和响应报文都要经由director,那么如果用户的并发量超过了调度器负载性能,就会造成调度器陷入瘫痪,影响用户体验。
借图一用–>
lvs-dr
转发方式:修改请求报文的MAC地址进行转发;IP首部不会发生变化的
(源IP为CIP,目标IP始终为VIP)
dr特点:
1、确保前端路由器将目标IP为VIP的请求报文一定会发送给dIRECTOR
解决方案有三种:
1).在前端路由做静态绑定:不好 影响后期高可用实现
2). iptables:定义规则
3). 禁止RS响应VIP的ARP的请求:
用调度器 修改内核参数,把VIP配置在特定的接口上实现禁止其响应 (回环lo网卡)
2、RS的RIP可以使用私有或者公有地址
3、RS和director必须在同一物理网络中 (比如都是网络)
4、请求报文必须由director调度,但是响应报文必须不能经由director
5、不支持端口映射
6、各RS可以使用大多的操作系统
3.lvs-tun:ip隧道
转发方式:不修改请求报文的IP首部,而是在原有的IP首部外在次封装一个IP首部;请求报文经由director;响应报文一定不能经由director
注意:封装了两个IP首部的报文大小不要超过MTU:
特点:
1、RIP,DIP,VIP全得是公网地址
2、RS的网关不能也不可能指向DIP;
3、不支持端口映射
4、请求报文经由director调度但响应报文将直接发给CIP
5、RS的操作系统必须支持IP隧道功能
4、lvs-fullnat
转发方式:通过同时修改请求报文的源IP地址(CIP–>DIP)和目标IP地址(VIP–>RIP)实现转发
特点:
1、VIP是公网地址,RIP,DIP是私网地址,且可以不在同一IP网络中,但需要通过路由互相通信;
2、RS收到请求报文的源IP为DIP,因此其响应报文将发给DIP
3、请求报文和响应报文都必须经由direcr
4、支持端口映射
5、RS可使用任意操作系统
lvs调度算法一共有十种:
静态算法:仅根据算法本身进行调度。
存在的无情问题-不考虑当前RS的负载性能强弱
1)RR–轮询 (比如1.2.3.4–>1.2.3.4.)
2)WRR–加权轮询 比权重 那个权重数高,负载性能好先用那个
3)SH–源地址哈希 实现session保持 存在的问题-调度力度太大,负载均衡的效果差
4)DH– 目标地址哈希 根据请求的目标ip实现定向转发负载性能较差
正向web代理,负载均衡内网用户对互联网的请求
Cinent–>Director–>Web Cache Servers (正向代理)
动态算法:即根据算法又根据各RS当前的负载状态进行调度;
overhead 负载值;负载值一样时自上而下轮询
LC
最少连接
存在的问题也:就说调度器会首选选择RS服务请求并发数最少的那个,即使它的性能很差
算法:Overhead=Actice*256+Inatice
负载值=活动链接*256+非活动连接
RS1: 10, 1000
RS2: 20, 10
WLC
加权最少连接;
存在的问题:当orverload为0时可能会出现权重小的服务器响应新请求;
overhead=(actice*256+Inactive)/weight
RS1: 10, 100, 1
RS2: 20, 10, 3
SED
最短期望延迟 也就是WLC的算法改进版
存在的问题:当多个RS之间的权重比较大时会出现RS空闲的情况
overhead=(Active+1)*256/weight
RS1: 0, 9
RS2: 0, 1
NQ:
NerverQueue:SED算法的改进,即当有用户请求涌入时服务器根据服务器权重由大到小依次先分配1个请求而后再按照SED算法调度;
LBLC:
基于本地的最少连接;动态的DH算法,即考虑当前服务器负载状态的DH算法,把新请求调度到负载少的服务器上,从而尽可能的实现服务器间负载的均衡;
存在的问题:当新请求很少而且客户端重复大量访问某个热门服务时会出现严重负载不均衡的场景
Client –> Director –> Web Cache Server(正向代理)
LBLCR:带复制功能的LBLC;
通过服务器间缓存复制实现本应该从高负载的A缓存服务器回应某些客户请求转换为从低负载的B服务器回应他们请求,进而实现后续他们的请求都从B服务器而不从A服务器回应,最终实现负载均衡;
ipvs集群服务工作机制:四层交换(四层路由,直接工作在内核上)
ipvs支持基于TCP,UDP,SCTP,AH,ESP,AH_ESP等协议的众多服务;
1.一个ipvs主机可以同时定义多个集群服务;
2.一个ipvs服务至少应该一个RS;
通过防火墙标记可以实现把多个端口绑定在一起进而实现将多个集群服务定义为一个集群服务而应用同一个调度逻辑。
管理集群服务命令用法:
增、删、改、查
ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-Mnetmask] [-b sched-flags]
-A:添加一个集群服务
-E:修改已添加的集群服务
-t:TCP协议
-U: UDP协议
-f:防火墙标记
-s:调度方法,默认为WLC
-p: 持久连接
-D: 删除服务
管理集群上的RS
-a:向指定的CS中添加RS
-e:修改RS
-r:只有支持端口映射的LVS类型才允许此处使用跟集群服务中不同的端口
指明LVS工作类型
-q: 即dr模式
-i:tun模式
-m:nat模式
-w:指定权重
查看
ipvsadm -L | 11 [options]
-n,–numberic;数字格式显示IP和PORT
–exact:精确值
-c,–connection;显示IPVS连接
-stats;统计数据
-rate;速率
清空
ipvsadm -C 按下Enter键-非常自然
清空计数器
ipsadm -Z [-t|u|f service-address]
存储和重载
主程序:/usr/sbin/ipvsadm
主程序:/usr/sbin/ipvsadm
规则保存工具:/usr/sbin/ipvsadm-save
规则重载工具:/usr/sbin/ipvsadm-restore
配置文件:/etc/sysconfig/ipvsadm-config
原创文章,作者:All well,如若转载,请注明出处:http://www.178linux.com/75174