HA cluster应用—CoroSync+Pacemaker

HA cluster应用——CoroSync v2 (quorum system)+Pacemaker (standalone daemon)+ crmsh/pcsh


corosync简述:

Corosync是OpenAIS发展到Wilson版本后衍生出来的开放性集群引擎工程。可以说Corosync是OpenAIS工程的一部分。OpenAIS从openais0.90开始独立成两部分,一个是Corosync;另一个是AIS标准接口Wilson。Corosync包含OpenAIS的核心框架用来对Wilson的标准接口的使用、管理。它为商用的或开源性的集群提供集群执行框架。Corosync执行高可用应用程序的通信组系统,它有以下特征:

(1)一个封闭的程序组(A closed process group communication model)通信模式,这个模式提供一种虚拟的同步方式来保证能够复制服务器的状态。

(2)一个简单可用性管理组件(A simple availability manager),这个管理组件可以重新启动应用程序的进程当它失败后。

(3)一个配置和内存数据的统计(A configuration and statistics in-memory database),内存数据能够被设置,回复,接受通知的更改信息。

(4)一个定额的系统(A quorum  system),定额完成或者丢失时通知应用程序。

总结:Corosync是整合底层节点服务器,提供API个pacemaker的一个中间层


 pacemaker简述:

pacemaker,是一个群集资源管理器。它实现最大可用性群集服务(亦称资源管理)的节点和资源级故障检测和恢复使用您的首选集群基础设施(OpenAIS的或Heaerbeat)提供的消息和成员能力。
它可以做乎任何规模的集群,并配备了一个强大的依赖模型,使管理员能够准确地表达群集资源之间的关系(包括顺序和位置)。几乎任何可以编写脚本,可以管理作为心脏起搏器集群的一部分。

 pacemaker支持超过16个节点的控制


            ——————————————————————————————–

          配置Corosync前提:
(1)时间同步;
        建议自建一个时间同步服务器,如果使用外网的时间同步服务器,会增加网络报文,或多或少有误差
(2)集群内所用主机都是基于主机名进行通信,建议使用hosts文件进行主机名解析
用DNS作为主机名解析,DNS服务器有可能会宕机,有可能会延迟,但是高可用集群就是为了出现故障的时候快速进行相应;有一些高可用集群会有严格要求,解析过来的主机名与对方使用真正使用的主机名必须保持一致,而DNS解析只需要名字与IP保持一致就行了,要求较低。
(3)使用独立的多播地址,避免与其他集群使用相同的多播地址
             
            ——————————————————————————————–
           ================================================================
           ================================================================



            ——————————————————————————————–

        安装前的准备工作
由于集群服务的机器较多,建议配置ansible,所用ansible批量安装和配置corosync与pacemaker:

安装并修改ansible中的host文件,将添加集群的主机IP:
HA cluster应用—CoroSync+Pacemaker
 
使用ssh-keygen生成私钥以及公钥:
HA cluster应用—CoroSync+Pacemaker
 
使用ansible模块将公钥批量分发到个节点机(客户端):
ansible all -m authorized_key -a “user=root key='{{ lookup(‘file’, ‘/root/.ssh/id_rsa.pub’) }}’ path=/root/.ssh/authorized_keys manage_dir=no” –ask-pass -c paramiko
HA cluster应用—CoroSync+Pacemaker
 
将hosts文件发送至个节点,以及使用ntpdate命令,进行各节点的时间同步:
 ~]# ansible cluster -m copy -a “src=/etc/hosts dest=/etc/hosts”
~]# ansible all -m shell -a “ntpdate
HA cluster应用—CoroSync+Pacemaker

 


            ——————————————————————————————–

安装corosync,pacemaker

由于两个包都在base仓库,所以直接使用yum安装
   ~]# yum install -y corosync pacemaker

            ——————————————————————————————–

corosync的程序环境

配置文件

文本格式的配置文件,建议使用:/etc/corosync/corosync.conf.example

使用UDP协议的精简版corosync,建议不使用:/etc/corosync/corosync.conf.example.udpu

xml格式的配置文件,建议不使用:/etc/corosync/corosync.xml.example


密钥文件,默认安装是不会生成的,需要手动生成,而且该文件是一个二进制文件,目的是为了区分同一网络内的节点有配有相同配置的服务器:/etc/corosync/authkey


集群信息库,每节点都会自动的同步,除了authkey文件:/var/lib/corosync


            ——————————————————————————————–


        corosync配置文件详解:                

       totem { } 节点间的通信协议,主要定义通信方式、通信协议版本、加密算法等 ;

             interface{}:定义集群心跳信息传递的接口,可以有多组;在Interface内,有四个必选参数,一个可选参数;多个网卡参与集群事务信息传递,则需要定义多个Interface,只是ringnumber,多播地址,网络地址不能一样

ringnumber      #用来标记当前Interface在当前totem上的环状号码,以避免出现环状信息进入死循环,必须从0开始标记

bindnetaddr      #绑定的网络地址或者主机IP地址,用于集群事务信息通信的网络地址

mcastaddr         #多播地址,要避免使用224开头的地址

mcastport         #多播地址,在实现多播发送信息时,所用的端口

ttl                        #一个报文能被中继发送多少次,一般设置为1,不允许中继

broadcast            #广播地址,可选,如果使用的多播地址进行集群有关的信息传递,则无需使用广播的方式了

                        version                  #指明配置文件的版本,目前取值仅有2一项可用;

               crypto_hash         #通讯加密hash算法的类型默认是sha1,支持md5,  sha1,  sha256,  sha384  和sha512
               crypto_cipher      #对称加密算法类型,默认是aes256,支持aes256, aes192, aes128 and 3des,但是依赖于crypto_hash;但是越复杂的算法,越是消耗时钟周期
               secauth                     #各节点彼此通信时是否需要验证彼此身份,支持HMAC/SHA1两种方法,默认是ON,但是crypto_hash和crypto_cipher设置好了,该项也无需显式指明。
              
            —————————————–

       logging { } 定义日志信息
                to_stderr            #记录到系统日志中

                to_logfile            #记录到指定的日志文件中
                to_syslog         #记录到syslog系统中         这三种方法只需要使用一种就行了,无需重复记录

            —————————————–

       quorum { } 定义投票系统

                provider     #指明使用哪种算法进行投票系统,目前只支持corosync_votequorum
            —————————————–

       nodelist { } 节点列表,会自动生成,无需手动配置
                    nodeid     #指明节点id
            —————————————–

       qb { } 

               与libqb配置有关的配置项,一般无需配置

                     —————————————–  


生成authkey:

         corosync-keygen [-k <filename>] [-l]

                -k 指明生成的密钥文件存放的位置

                -l 指明随机数生成器,默认使用熵池,熵池用紧,会使用伪随机数生成器;使用伪随机数生成器会阻塞,解决方法,下载文件,会有大量IO,也会填充到熵池中  

HA cluster应用—CoroSync+Pacemaker

 
                     —————————————–

配置示例:

totem {

version: 2

crypto_cipher: aes256 

crypto_hash: sha1

interface {

ringnumber: 0

bindnetaddr: 10.1.35.1

mcastaddr: 239.255.35.1

mcastport: 5405

ttl: 1

}

}

logging {

fileline: off

to_stderr: no

to_logfile: yes

logfile: /var/log/cluster/corosync.log

to_syslog: no

debug: off

timestamp: on            #时间戳标签,如果记录到系统日志,则无需开启

logger_subsys {        #是否记录子系统日志

subsys: QUORUM        #记录选举系统日志

debug: off                    #关闭调试模式

}

}

quorum {

provider: corosync_votequorum
        #two_node: 1          #如果是两节点集群,显式定义

}

nodelist {

node {

ring0_addr: node1.hunter.com

nodeid: 1

}

node {

ring0_addr: node1.hunter.com

nodeid: 2

}

node {

ring0_addr: node1.hunter.com

nodeid: 3

}

}

                     —————————————–
            将配置文件,及认证文件复制到其他节点之上,但是配置文件需要修改totem配置段的相关信息

~ ]# scp authkey corosync.conf 10.1.35.2:/etc/corosync/

~ ]# scp authkey corosync.conf 10.1.35.25:/etc/corosync/


                     —————————————–

            启动服务:systemctl start corosync.service
HA cluster应用—CoroSync+Pacemaker

                 udp的5404端口是用特殊用途:是完成选举DC的重要通道
                 udp的5405是corosync正常工作监听的端口
                 
                     —————————————–

验正服务启动:

(1) 查看日志;

(2) corosync-cmapctl  |    grep members 
        corosync-cmapctl 查看对象数据信息(CID)

(3) corosync-cfgtool:管理工具;

-s:显示当前节点各ring相关的信息;

-R:控制所有节点重载配置;




                     ===================================================================
 

pacemaker:

程序环境:

配置文件:/etc/sysconfig/pacemaker

主程序:/usr/sbin/pacemakerd

Unit File:pacemaker.service


启动服务:

systemctl start pacemaker.service 


监控服务启动是否正常:

# crm_mon 

pacemaker提供的工具

HA cluster应用—CoroSync+Pacemaker

由于pacemaker提供的的工具都是一些底层工具,用起来过于麻烦,建议使用crmsh,只需要一个控制节点安装即可   (也可以在多个节点上安装进行控制)

                     ===================================================================



crmsh安装


crmsh-2.1.4-1.1.x86_64.rpm

pssh-2.3.1-4.2.x86_64.rpm

python-pssh-2.3.1-4.2.x86_64.rpm


                     —————————————–

配置接口(crmsh/pcs)

crmsh:

运行方式:

交互式方式:

                              crm(live)#

命令方式:

crm COMMAND


获取帮助:ls, help

   help [KEYWORD]


COMMAND:#凡是带有/的都表示有子命令

cd             Navigate the level structure

help           Show help (help topics for list of topics)

ls             List levels and commands

quit           Exit the interactive shell

report         Create cluster status report

status         Cluster status

up             Go back to previous level

cib/           CIB shadow management

cibstatus/     CIB status management and editing

 cluster/       Cluster setup and management

 configure/     CIB configuration      主配置工具

 assist/        Configuration assistant   配置辅助工具,一般比较少用

 history/       Cluster history,显示历史状态信息

 ra/            Resource Agents (RA) lists and documentation,显示RA信息

 template/      Edit and import a configuration from a template,定制模板

 corosync/      Corosync management,corosync 管理器

 node/          Nodes management      节点状态控制

 options/       User preferences,用户配置

 resource/      Resource management(ra资源管理器)

 script/        Cluster script management         脚本管理

 site/          Site support,报告站点相关信息

 

                     —————————————–
        

configure命令:

Finally, there are the cluster properties, resource meta attributes defaults, and operations defaults. All are just a set of attributes. These attributes are managed by the following commands:

– property
– rsc_defaults
– op_defaults

Commands for resources are:

– primitive
– monitor
– group
– clone
– ms/master (master-slave)

There are three types of constraints:

– location
– colocation
– order   

设置集群的全局属性:property 
stonith-enabled=true|false

定义一个primitive资源的方法:
primitive <rsc> {[<class>:[<provider>:]]<type>} [params attr_list] [op op_type [<attribute>=<value>…] …]

op_type :: start | stop | monitor

定义一个组资源的方法:
group <name> <rsc> [<rsc>…]

<rsc>:资源的ID,字符串;
[<class>:[<provider>:]]<type>

定义资源监控
(1) monitor <rsc>[:<role>] <interval>[:<timeout>]
            使用monitor命令,指定要监控的资源<rsc>,指定监控的时间间隔<interval>,该资源的超时时间<timeout>
(2) primitive <rsc> {[<class>:[<provider>:]]<type>} [params attr_list] [op monitor interval=# timeout=#]
如果在使用primitive创建资源的时候,则无需指明监控的资源<rsc>


                     —————————————–

ra:
Commands:
cd             Navigate the level structure
classes        List classes and providers
help           Show help (help topics for list of topics)
info           Show meta data for a RA
list           List RA for a class (and provider)
ls             List levels and commands
providers      Show providers for a RA and a class
quit           Exit the interactive shell
up             Go back to previous level


                     —————————————–


常用命令:
classes:类别列表
list CLASSES [PROVIDER]:列出指定类型(及提供者)之下的所有可用RA;
info [<class>:[<provider>]:]]<type>:显示指定的RA的详细文档;


                     —————————————–


资源约束关系的定义:

位置约束:
location <id> rsc  <score>:  <node>
<score>:
#, -#
inf, -inf 

property default-resource-stickiness

排列约束:
colocation <id> <score>:  <rsc>  <with-rsc>

顺序约束:
order <id> [{kind|<score>}:] first then [symmetrical=<bool>]
kind :: Mandatory(强制) | Optional(可选) | Serialize(序列化,按顺序停止启动)
symmetrical(默认是对称的,先启动的最后停止)


                     —————————————–

resource:资源管理命令

migrate   迁移资源

start         启动资源

stop         停止资源

status      资源状态查看
cleanup   清理资源中间状态(中间状态可以有助于对故障的判断,但是有时候需要清理完之后才能重启资源)

                     —————————————– 


crmsh配置详解:

        首先,由于没有stonith设备(软硬件设备均没有),所有使用verify查看配置文件是否正确时,会报错,所以,先将stonith关闭

HA cluster应用—CoroSync+Pacemaker

 


                     —————————————–


配置虚拟地址-VIP   


    crm(live)configure# primitive webip ocf:heartbeat:IPaddr params ip=”10.1.35.99″ nic=”eno16777736″ cidr_netmask=”16″ broadcast=”10.1.255.255″

HA cluster应用—CoroSync+Pacemaker

 在命令行模式,使用命令ip a l   可以查看,此时VIP以复制地址的形式配置在指定的网卡上了

HA cluster应用—CoroSync+Pacemaker

 

                     —————————————–

添加httpd服务:

crm(live)configure# primitive webserver systemd:httpd

crm(live)configure#commit


默认情况下,集群运行资源是以尽量平均分配资源到各节点为目的的,但是高可用服务需要这两个资源要在一起才有意义,可以使用排列约束或者位置约束

HA cluster应用—CoroSync+Pacemaker

 
                     —————————————–


定义组,使用排列约束:

crm(live)configure# group webgroup webserver webip

HA cluster应用—CoroSync+Pacemaker

 

crm(live)# status


HA cluster应用—CoroSync+Pacemaker

 使用命令status,此时webip与webserver已经运行在同一个ra上了



此时使用命令请求页面,是在node25上

HA cluster应用—CoroSync+Pacemaker

 然后standby node25.hunter.com后再次请求页面:

HA cluster应用—CoroSync+Pacemaker

 资源已经迁移到node1上;

HA cluster应用—CoroSync+Pacemaker

                     —————————————–

删除资源:

删除资源需要先停止资源;可以进入resoource;
resource  –>  stop webserver   –>  cd –>  configure  –>  delete webserver –> show 
检查是否已经成功删除
HA cluster应用—CoroSync+Pacemaker

 

                     —————————————–

定义共享文件系统:

primitive webstore ocf:heartbeat:Filesystem params device=”10.1.35.25:/data/web” directory=”/var/www/html” fstype=”nfs” op start timeout=60s op stop timeout=60s

由于默认的超时时间是20秒,所以还需要op超时,重新指点超时时间 HA cluster应用—CoroSync+Pacemaker

 HA cluster应用—CoroSync+Pacemaker

                 创建完之后还需要与webserver 和webip定义在同一个组

HA cluster应用—CoroSync+Pacemaker

 按正常顺序进行排列(先挂载文件系统,然后启动httpd服务,最后设定VIP)


                     —————————————–
                     —————————————–

添加资源监控

由于此时已经创建了资源,则直接使用monitor添加监控规则:

HA cluster应用—CoroSync+Pacemaker

 定义完之后需要verify检查是否符合标准,如果不符合,此时可以直接使用edit直接修改,没有问题则可以提交


当使用命令killall httpd,监控程序会在指定的时间(60秒检查一个,超时时间为30秒)监测,如果资源不在线,默认会重启服务,如果重启不成功,则会将资源迁移到其他节点上



                     —————————————–
                     —————————————–


位置约束:(资源与节点的关系)

location <id> rsc  <score>:  <node>

使用location定义一个<id>,指明资源 rsc 对节点<node>的<score>依赖程度

<score>:

#, -#

inf, -inf 


property default-resource-stickiness=<score>                #资源默认对当前的黏性程度为score

即:如果资源的倾向性无法大于资源对节点的黏性的话,资源还是会停留在当前节点之上


例子:

使用location定义webstore对节点1的倾向性为正无穷:

crm(live)configure# location webstore_perfer webstore inf: node1.hunter.com

HA cluster应用—CoroSync+Pacemaker

 

如果再定义webserver对node1的倾向性对node1服务的倾向性为负无穷,且将这两个服务定义在一个组,会有什么现象?

HA cluster应用—CoroSync+Pacemaker

 将webstore定义在node1节点为负无穷,webserver定义在node1节点为正无穷,且将两个资源定义在同一个组内

HA cluster应用—CoroSync+Pacemaker

 将出节点1之外的全部节点都standby,那么,该组的资源是不会启动的,及将一个正无穷资源与一个负无穷资源放一起是没有办法启动的



                     —————————————–
                     —————————————–


排列约束(资源与资源的倾向性的关系):

colocation <id> <score>:  <rsc>  <with-rsc>…..     #使用命令colocation,定义一个约束名称<id>,指明资源1<rsc>与资源2<with-rsc>….在一起的倾向性<score>;注意<with-rsc>可以有多个

HA cluster应用—CoroSync+Pacemaker

 

                     —————————————–
                     —————————————–

顺序约束(资源启动的先后顺序):

order <id> [{kind|<score>}:] first then [symmetrical=<bool>]

kind :: Mandatory(强制) | Optional(可选) | Serialize(序列化,按顺序停止启动)

symmetrical(默认是对称的,先启动的最后停止)

        使用命令order,定义一个顺序约束的名字<id>,指明kind的类型(是强制的,还是可选的,还是序列化),最后列出资源的启动顺序


crm(live)configure# order weboeder Mandatory webstore webserver webip

HA cluster应用—CoroSync+Pacemaker

 

                     —————————————–
                     —————————————–
































ldirectord:用于管理ipvs,与keepalive类似,但所不同的是它不能高可用。能根据配置文件生成规则,以及监控后端real server的健康状态,并根据健康状态的情况来调整规则。
相对于keepalive来说,ldirectord是一个重量级的高可用
高可用ipvs,可借助于ldirectord实现; 



                     —————————————–
                     —————————————–



博客作业:corosync, pacemaker,nfs高可用mariadb;

pcs:node1, node2, node3

—————————————–
yum install pacemaker pcs
—————————————–
使用pcs就不再使用crmsh
systemc  start    pcs.service 
—————————————–
由于pcs程序包不会生成pcs的执行用户,需要手动创建
id pcsuser;echo ‘passwd’| passwd –stdin pcsuser

—————————————–
认证节点
pcs  cluster auth node1 node2 node3
输入账号密码
—————————————–
创建集群
pcs  cluster setup –name pcsuser node1 node2 node3
—————————————–
启动集群
pcs cluster start –all
检查集群
systemctl status corosync.service    |    pacemaker
—————————————–
关闭stonith选项
pcs property  set stonith-enabled=false
—————————————–
验证
crm verify -L -V
—————————————–











原创文章,作者:hunter,如若转载,请注明出处:http://www.178linux.com/60992

(0)
hunterhunter
上一篇 2016-11-27
下一篇 2016-11-27

相关推荐

  • linux上安全软件SElinux

    selinux简介 SELinux(Security-Enhanced Linux) 是美国国家安全局(NSA)对于强制访问控制的 实现,是 Linux历史上最杰出的新安全子系统。NSA是在Linux社区的帮助下开发了一种访问控制体系,在这种访问控制体系的限制下,进程只能访问那些在他的 任务中所需要文件。SELinux 默认安装在 Fedora 和 Red …

    系统运维 2016-09-19
  • 关于rpm及yum的一些感想

    rpm -ivh PACKAGE_FILE  注意: (1) 不要对内核做升级操作;Linux支持多内核版本并存,因此 ,对直接安装新版本内核 v rpm {-q严格–query} [select-options] [query-options] v [se…

    Linux干货 2016-08-24
  • ssh 笔记

    ssh

    Linux干货 2018-01-08
  • test2

    欢迎使用马克飞象 作业帮 示例笔记本 马克飞象 帮助 Markdown 马克飞象是一款专为印象笔记(Evernote)打造的Markdown编辑器,通过精心的设计与技术实现,配合印象笔记强大的存储和同步功能,带来前所未有的书写体验。特点概述: 功能丰富 :支持高亮代码块、LaTeX 公式、流程图,本地图片以及…

    Linux干货 2017-03-20
  • ​iptables简单介绍

    iptables简单介绍 什么是防火墙? 防火墙是工作在主机或网络边缘,能够对其所匹配到的报文根据事先定义好的规则作出相应处理的组件,可以是软件,也可以是硬件,还能软硬结合实现。 UNIX/Linux中对防火墙的实现 早期在openBSD中通过内核中的ipfw实现简单的数据报过滤功能、后来在Linux 2.2内核中使用ipchains来取代,意为链、后来在L…

    Linux干货 2016-03-31
  • 计算机网络基础

    1、OSI, TCP/IP, 五层协议的体系结构, 以及各层协议 OSI分层(7层): 物理层, 数据链路层, 网络层, 传输层, 会话层, 表示层, 应用层 TCP/IP分层(4层): 网络接口层, 网际层, 传输层, 应用层 五层协议(5层): 物理层, 数据链路层, 网络层, 运输层, 应用层 每一层的协议: 物理层: RJ45, CLOCK, IEE…

    Linux干货 2016-09-19