corosync+pacemaker+drbd+mysql配置安装详解

一, 

基本环境介绍及基本环境配置

节点1: node1.hulala.com      192.168.1.35     centos6.5_64    添加8G新硬盘

节点2: node1.hulala.com      192.168.1.36     centos6.5_64    添加8G新硬盘

vip   192.168.1.39   

节点1与节点2均需配置

修改主机名:

vim /etc/sysconfig/network

HOSTNAME=node1.hulala.com

配置hosts解析:

vim /etc/hosts

192.168.1.35    node1.hulala.com node1 

192.168.1.36    node2.hulala.com node1      

同步系统时间:

ntpdate cn.pool.ntp.org

关闭防火墙与SELINUX

service iptables stop

chkconfig iptables off

cat /etc/sysconfig/selinux

SELINUX=disabled

以上配置在两个节点都需要配置,配置完成之后重启两个节点

二:

配置ssh互信

[root@node1~]#ssh-keygen -t rsa -b 1024

[root@node1~]#ssh-copy-id root@192.168.1.36

[root@node2~]#ssh-keygen -t rsa -b 1024

[root@node2~]#ssh-copy-id root@192.168.1.35

三:DRBD的安装与配置(node1和node2执行相同操作)

[root@node1~]#wget -c http://elrepo.org/linux/elrepo/el6/x86_64/RPMS/drbd84-utils-8.4.2-1.el6.elrepo.x86_64.rpm

[root@node1~]#wget -c http://elrepo.org/linux/elrepo/el6/x86_64/RPMS/kmod-drbd84-8.4.2-1.el6_3.elrepo.x86_64.rpm

[root@node1~]#rpm -ivh *.rpm

获取一个sha1值做为shared-secret

[root@node1~]#sha1sum /etc/drbd.conf

8a6c5f3c21b84c66049456d34b4c4980468bcfb3  /etc/drbd.conf

创建并编辑资源配置文件:/etc/drbd.d/dbcluster.res

[root@node1~]# vim /etc/drbd.d/dbcluster.res

resource dbcluster {

    protocol C;

    net {

        cram-hmac-alg sha1;

        shared-secret "8a6c5f3c21b84c66049456d34b4c4980468bcfb3";

        after-sb-0pri discard-zero-changes;

after-sb-1pri discard-secondary;

        after-sb-2pri disconnect;

        rr-conflict disconnect;

    }

    device    /dev/drbd0;

    disk      /dev/sdb1;

meta-disk internal;

    on node1.hulala.com {

        address   192.168.1.35:7789;

    }

    on node2.hulala.com {

        address   192.168.1.36:7789;

    }

}

以上配置所用参数说明:

RESOURCE: 资源名称

PROTOCOL: 使用协议”C”表示”同步的”,即收到远程的写入确认之后,则认为写入完成.

NET: 两个节点的SHA1 key是一样的

after-sb-0pri : “Split Brain”发生时且没有数据变更,两节点之间正常连接

after-sb-1pri : 如果有数据变更,则放弃辅设备数据,并且从主设备同步

rr-conflict: 假如前面的设置不能应用,并且drbd系统有角色冲突的话,系统自动断开节点间连接

META-DISK: Meta data保存在同一个磁盘(sdb1)

ON <NODE>: 组成集群的节点

将DRBD配置拷贝到node机器:

[root@node1~]#scp /etc/drbd.d/dbcluster.res root@192.168.1.36:/etc/drbd.d/

创建资源及文件系统:

创建分区(未格式化过)

在node1和node2上创建LVM分区:

[root@node1~]#fdisk /dev/sdb

在node1和node2上给资源(dbcluster)创建meta data:

[root@node1~drbd]#drbdadm create-md dbcluster

激活资源(node1和node2都得查看)

– 首先确保drbd module已经加载

查看是否加载:

# lsmod | grep drbd

若未加载,则需加载:

# modprobe drbd

# lsmod | grep drbd

drbd                  317261  0 

libcrc32c               1246  1 drbd

– 启动drbd后台进程:

[root@node1 drbd]# drbdadm up dbcluster

[root@node2 drbd]# drbdadm up dbcluster

查看(node1和node2)drbd状态:

[root@node2 drbd]# /etc/init.d/drbd status

GIT-hash: 7ad5f850d711223713d6dcadc3dd48860321070c build by dag@Build64R6, 2012-09-06 08:16:10

m:res        cs         ro                   ds                         p  mounted  fstype

0:dbcluster  Connected  Secondary/Secondary  Inconsistent/Inconsistent  C

从上面的信息可以看到,DRBD服务已经在两台机器上运行,但任何一台机器都不是主机器(“primary” host),因此无法访问到资源(block device).

开始同步:

仅在主节点操作(这里为node1)

[root@node1 drbd]# drbdadm — –overwrite-data-of-peer primary dbcluster

查看同步状态:

[root@node1 drbd.d]# cat /proc/drbd 

version: 8.4.2 (api:1/proto:86-101)

GIT-hash: 7ad5f850d711223713d6dcadc3dd48860321070c build by dag@Build64R6, 2012-09-06 08:16:10

 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r—–

 ns:8297248 nr:0 dw:0 dr:8297912 al:0 bm:507 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

上面的输出结果的一些说明:

cs (connection state): 网络连接状态

ro (roles): 节点的角色(本节点的角色首先显示)

ds (disk states):硬盘的状态

复制协议: A, B or C(本配置是C)

看到drbd状态为”cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate”即表示同步结束.

也可以这样查看drbd状态:

[root@centos193 drbd]# drbd-overview 

  0:dbcluster/0  Connected Secondary/Primary UpToDate/UpToDate C r—–

创建文件系统:

在主节点(Node1)创建文件系统:

[root@node1 drbd]# mkfs -t ext4 /dev/drbd0

mke2fs 1.41.12 (17-May-2010)

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

…….

180 days, whichever comes first.  Use tune2fs -c or -i to override.

注:没必要在辅节点(Node2)做同样的操作,因为DRBD会处理原始磁盘数据的同步.

另外,我们也不需要将这个DRBD系统挂载到任何一台机器(当然安装MySQL的时候需要临时挂载来安装MySQL),因为集群管理软件会处理.还有要确保复制的文件系统仅仅挂载在Active的主服务器上.

三:mysql的安装

1,在node1和node2节点安装mysql:

yum install mysql* -y

2.node1和node2都操作停止mysql服务

[root@node1~]# service mysql stop

Shutting down MySQL.        [  OK  ]

3.node1和node2都操作创建数据库目录并将该目录权限属主修改为mysql

[root@host1 /]# mkdir -p /mysql/data

[root@host1 /]# chown -R mysql:mysql /mysql

4,关闭mysql临时挂载DRBD文件系统到主节点(Node1):

[root@node1 ~]# mount /dev/drbd0  /mysql/

5.node1和node2都操作修改my.cnf文件修改

在[mysqld]下添加新的数据存放路径

datadir=/mysql/data

7.将默认的数据路径下的所有文件和目录cp到新的目录下(node2不用操作)

[root@host1 mysql]#cd /var/lib/mysql

[root@host1 mysql]#cp -R * /mysql/data/

node1和node2都操作这里注意copy过去的目录权限属主需要修改为mysql,这里直接修改mysql目录即可.

[root@host1 mysql]# chown -R mysql:mysql /mysql

8.启动node1上的mysql进行登陆测试

[root@host1 mysql]# mysql 

9.在节点Node1卸载DRBD文件系统

[root@node1 ~]# umount /var/lib/mysql_drbd

[root@node1 ~]# drbdadm secondary dbcluster

将DRBD文件系统挂载节点Node2

[root@node2 ~]# drbdadm primary dbcluster

[root@node2 ~]# mount /dev/drbd0 /mysql/

节点Node2上配置MySQL并测试

[root@node1 ~]# scp node2:/etc/my.cnf /etc/my.cnf

[root@node2 ~]# chown mysql /etc/my.cnf

[root@node2 ~]# chmod 644 /etc/my.cnf 

10. node2上做mysql登陆测试

[root@node2 ~]# mysql

11.在Node2上卸载DRBD文件系统,交由集群管理软件Pacemaker来管理

[root@node2~]# umount /var/lib/mysql_drbd

[root@node2~]# drbdadm secondary dbcluster

[root@node2~]# drbd-overview 

  0:dbcluster/0  Connected Secondary/Secondary UpToDate/UpToDate C r—– 

[root@node2~]#

四:Corosync和Pacemaker的安装配置(node1和node2都需安装)

安装Pacemaker必须依赖:

[root@node1~]#yum -y install automake autoconf libtool-ltdl-devel pkgconfig python glib2-devel libxml2-devel libxslt-devel python-devel gcc-c++ bzip2-devel gnutls-devel pam-devel libqb-devel

安装Cluster Stack依赖:

[root@node1~]yum -y install clusterlib-devel corosynclib-devel

安装Pacemaker可选依赖:

[root@node1~]yum -y install ncurses-devel openssl-devel cluster-glue-libs-devel docbook-style-xsl

Pacemaker安装:

[root@node1~]yum -y install pacemaker

crmsh安装:

[root@node1~]wget http://download.opensuse.org/repositories/network:/ha-clustering:/Stable/CentOS_CentOS-6/network:ha-clustering:Stable.repo

[root@node1~]yum -y install crmsh

1,配置corosync

Corosync Key

– 生成节点间安全通信的key:

[root@node1~]# corosync-keygen

– 将authkey拷贝到node2节点(保持authkey的权限为400):

[root@node~]# scp /etc/corosync/authkey node2:/etc/corosync/

2,[root@node1~]# cp /etc/corosync/corosync.conf.example /etc/corosync/corosync.conf

编辑/etc/corosync/corosync.conf:

# Please read the corosync.conf.5 manual page

compatibility: whitetank

aisexec { 

        user: root 

        group: root 

totem {

        version: 2

secauth: off

threads: 0

interface {

ringnumber: 0

bindnetaddr: 192.168.1.0

mcastaddr: 226.94.1.1

mcastport: 4000

ttl: 1

}

}

logging {

fileline: off

to_stderr: no

to_logfile: yes

to_syslog: yes

logfile: /var/log/cluster/corosync.log

debug: off

timestamp: on

logger_subsys {

subsys: AMF

debug: off

}

}

amf {

mode: disabled

}

– 创建并编辑/etc/corosync/service.d/pcmk,添加”pacemaker”服务

[root@node1~]# cat /etc/corosync/service.d/pcmk 

service {

# Load the Pacemaker Cluster Resource Manager

name: pacemaker

ver: 1

}

将上面两个配置文件拷贝到另一节点

[root@node1]# scp /etc/corosync/corosync.conf node2:/etc/corosync/corosync.conf

[root@node1]# scp /etc/corosync/service.d/pcmk node2:/etc/corosync/service.d/pcmk

3,启动corosync和Pacemaker

 分别在两个节点上启动corosync并检查.

[root@node1]# /etc/init.d/corosync start

Starting Corosync Cluster Engine (corosync):               [  OK  ]

[root@node1~]# corosync-cfgtool -s

Printing ring status.

Local node ID -1123964736

RING ID 0

id = 192.168.1.189

status = ring 0 active with no faults

[root@node2]# /etc/init.d/corosync start

Starting Corosync Cluster Engine (corosync):               [  OK  ]

– 在两节点上分别启动Pacemaker:

[root@node1~]# /etc/init.d/pacemaker start

Starting Pacemaker Cluster Manager:                        [  OK  ]

[root@node2~]# /etc/init.d/pacemaker start

Starting Pacemaker Cluster Manager:  

资源配置

配置资源及约束                  

配置默认属性

查看已存在的配置:

[root@node1 ~]# crm configure show

node node1.hulala.com

node node2.hulala.com

property $id="cib-bootstrap-options" dc-version="1.1.8-7.el6-394e906" cluster-infrastructure="classic openais (with plugin)" expected-quorum-votes="2"

禁止STONITH错误:

[root@node1 ~]# crm configure property stonith-enabled=false

[root@node1 ~]# crm_verify -L

让集群忽略Quorum:

[root@node1~]# crm configure property no-quorum-policy=ignore

防止资源在恢复之后移动:

[root@node1~]# crm configure rsc_defaults resource-stickiness=100

设置操作的默认超时:

[root@node1~]# crm configure property default-action-timeout="180s"

设置默认的启动失败是否为致命的:

[root@node1~]# crm configure property start-failure-is-fatal="false"

配置DRBD资源

– 配置之前先停止DRBD:

[root@node1~]# /etc/init.d/drbd stop

[root@node1~]# /etc/init.d/drbd stop

– 配置DRBD资源:

[root@node1~]# crm configure

crm(live)configure# primitive p_drbd_mysql ocf:linbit:drbd params drbd_resource="dbcluster" op monitor interval="15s" op start timeout="240s" op stop timeout="100s"

– 配置DRBD资源主从关系(定义只有一个Master节点):

crm(live)configure# ms ms_drbd_mysql p_drbd_mysql meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"

– 配置文件系统资源,定义挂载点(mount point):

crm(live)configure# primitive p_fs_mysql ocf:heartbeat:Filesystem params device="/dev/drbd0" directory="/var/lib/mysql_drbd/" fstype="ext4"

配置VIP资源

crm(live)configure# primitive p_ip_mysql ocf:heartbeat:IPaddr2 params ip="192.168.1.39" cidr_netmask="24" op monitor interval="30s"

配置MySQL资源

crm(live)configure# primitive p_mysql lsb:mysql op monitor interval="20s" timeout="30s" op start interval="0" timeout="180s" op stop interval="0" timeout="240s"

组资源和约束

通过”组”确保DRBD,MySQL和VIP是在同一个节点(Master)并且确定资源的启动/停止顺序.

启动: p_fs_mysql–>p_ip_mysql->p_mysql

停止: p_mysql–>p_ip_mysql–>p_fs_mysql

crm(live)configure# group g_mysql p_fs_mysql p_ip_mysql p_mysql

组group_mysql永远只在Master节点:

crm(live)configure# colocation c_mysql_on_drbd inf: g_mysql ms_drbd_mysql:Master

MySQL的启动永远是在DRBD Master之后:

crm(live)configure# order o_drbd_before_mysql inf: ms_drbd_mysql:promote g_mysql:start

配置检查和提交

crm(live)configure# verify

crm(live)configure# commit

crm(live)configure# quit

查看集群状态和failover测试

状态查看:

[root@node1 mysql]# crm_mon -1r

Failover测试:

将Node1设置为Standby状态

[root@node1 ~]# crm node standby

过几分钟查看集群状态(若切换成功,则看到如下状态):

[root@node1 ~]# crm status

将Node1恢复online状态:

[root@node1 mysql]# crm node online

[root@node1 mysql]# crm status

原创文章,作者:eryang,如若转载,请注明出处:http://www.178linux.com/16032

(0)
eryangeryang
上一篇 2016-05-07
下一篇 2016-05-09

相关推荐

  • Homework Week-1 Linux基本

    1、描述计算机的组成及其功能。 计算机由硬件和软件组成;硬件主要分为五部分:控制器,运算器、存储器、输入和输出设备。软件分为系统软件和应用软件。 控制器(Control):是整个计算机的中枢神经,其功能是对程序规定的控制信息进行解释,根据其要求进行控制,调度程序、数据、地址,协调计算机各部分工作及内存与外设的访问等。 运算器(Datapath):运算器的功能…

    Linux干货 2016-08-15
  • linux文件查找工具 — find

    简述:   linux中find命令是一种强大的实时查找工具,它通过用户给出的路径,在该路径下的文件系统中进行文件查找。因此在遍历一个较大的文件系统时会比较花费时间,而且find命令占用资源也是比较大的,所以它的工作特点是,查找的速度略慢,但是可以实现精确查找和实时查找。由于用户权限的问题,可能只搜索用户具备读取和执行权限的目录。由于fi…

    Linux干货 2016-08-18
  • Apache运行机制剖析

    1. B/S交互过程 浏览器(Browser)和服务器(Web Server)的交互过程:   1、  浏览器向服务器发出HTTP请求(Request)。 2、  服务器收到浏览器的请求数据,经过分析处理,向浏览器输出响应数据(Response)。 3、  浏览器收到服务器的响应数据,经过分析处理,将最终结果显示在浏览…

    Linux干货 2015-04-10
  • 计算机基础入门及Pyhton基础

    编程基础 计算机基础 程序(program识别并执行的指令 计算机是执行程序的机器 现代计算机 艾伦·麦席森·图灵奠定了现在计算机的逻辑工作方式的基础 冯·诺依曼提出计算机应该有五大部件组成:输入/输出设备、运算器、控制器、输出设备。这是现代计算机基本框架。 语言基础 计算机语言:与计算机之间交互的语言 机器语言:一定位数的二进制代码成为机器指令,指令集合则…

    2017-09-16
  • Linux系统启动流程简图

    CentOS 系统启动流程: POST 加电自检   外部硬件是否都能存在和是否能正常工作ROM:COMS 芯片上的BIOS 基本输入输出 BOOT Sequence:   引导加载次序,也就磁盘上的MBR,bootloader 按次序查找各引导设备,第一人有引导程序的设备即为本次启动用到的设备。 bootloaderr:引导加载器,程序…

    2017-05-13
  • “lnmap实战之负载均衡架构(无高可用)”之新增keepalived高可用

    “lnmap实战之负载均衡架构(无高可用)”之新增keepalived高可用 我之前有一篇”lnmap实战之负载均衡架构(无高可用)“博客是专门部署了lanmap,之前没有做高可用,那么我们现在就把高可用补上去吧 这样我们照着之前的文档从新部署一下 1.机器结构如下: 192.168.42.150 node0 …

    Linux干货 2017-06-25