如何使用与维护,才能把MySQL GR发挥到极致?

贺春旸 2017-01-12 10:33:58

作者介绍

贺春旸普惠金融MySQL专家,《MySQL管理之道》第一版、第二版作者。曾任职于中国移动飞信、机锋安卓市场,拥有丰富的数据库管理经验。目前致力于MySQL、Linux等开源技术的研究。

 

MySQL异步复制及semi-sync半同步复制,它们都基于MySQL binlog,原生复制是完全异步的,master不需要保证slave接收并执行了binlog,能够保证master最大性能,但是slave可能存在延迟,主备数据无法保证一致性,在不停服务的前提下如果master宕机,提升slave为新的主库,就会丢失数据。

 

semi-sync在异步复制基础上增加了数据保护的考虑,这样一来master必须确认slave收到binlog后(但不保证slave执行了事务)才能最终提交事务,若再结合MHA(Master High Availability)高可用架构,此时master挂掉之后,slave可以在apply完所有relay log后切换成master提供读写服务。

 

semi-sync半同步复制工作原理,如下图所示。

 

 

相对于MySQL源生复制和semi-sync半同步复制,Group Replication全同步复制的差异是:

 

  1. 全同步复制,主备无延迟,一个节点宕机后其他两个节点可以立即提供服务,而semi-sync需要应用(执行)完所有relay log,并依赖第三方高可用软件实现数据不丢失;

  2. 事务冲突检测保证数据一致性,多个节点可以同时读写数据,可以极大简化数据访问;

  3. 行级别并行复制,MySQL 5.7/MariaDB 10.0之前slave sql线程只有一个,这个长期饱受诟病,是导致slave落后master的主要原因。

 

 
1
Group Replication的工作原理

 

使用的是基于认证的复制,其流程如下图所示:

 

 

当客户端发起commit命令时(此时仍然没有发生真正的commit),所有本事务内对数据库的更改行的主键都会被搜集到一个写入集(writeset)中,该写入集随后会被复制到其他节点,该写入集会在每个节点上使用搜索到的主键进行确认性认证测试来判断该写入集是否可以被应用。如果认证测试失败,写入集会被丢弃并且原始事务会被回滚;如果认证成功,事务会被提交并且写入集会被在剩余节点进行应用。最终,这意味着所有服务器以相同的顺序接收同一组事务。

 

其他节点只要验证成功了,就会返回成功的信号,即使当前数据并没有真正的写入当前节点,固这里的全同步复制,其实是虚拟的全同步复制。这段时间内,数据是有延迟的,但很小,如果应用程序访问的是远端节点,读到的数据是未改变之前的旧数据。固在生产环境里,对数据延迟要求很苛刻的情况下,建议在一个主节点上读写,避免造成数据不一致的情况发生。

 

(注:Galera通过设置参数wsrep_causal_reads = ON可以避免,这种情况下需要等待远端节点应用完事务后,才返回客户端读取请求,这将增加读取的响应时间。Group Replication未发现相关参数,如有朋友知道也请告知。)

 

而真正意义上的全同步复制,是要等所有节点事务都提交落地,才成功返回客户端。因此虚拟全同步复制的性能会更好一些。

 

Group Replication内部实现了flow control限流措施,作用就是协调各个节点,保证所有节点执行事务的速度大于队列增长速度,从而避免丢失事务。实现原理和简单:整个Group Replication集群中,同时只有一个节点可以广播消息(数据),每个节点都会获得广播消息的机会(获得机会后也可以不广播),当慢节点的待执行队列超过一定长度后,它会广播一个FC_PAUSE消息,所以节点收到消息后都会暂缓广播消息并不提供写操作,直到该慢节点的待执行队列长度减小到一定长度后,Group Replication数据同步又开始恢复。

 

变量参数:

group_replication_flow_control_applier_threshold = 25000

group_replication_flow_control_certifier_threshold = 25000

 

待执行队列长度超过该值时,flow control被触发,默认是25000。
 

 
2
Group Replication的特性和注意事项

 

  • 全同步复制,事务要么在所有节点都提交,要么都回滚;

  • 多主复制,可以在任意节点进行写操作;

  • 在从服务器上并行应用事件,真正意义上的并行复制;

  • 节点自动配置--故障节点自动从集群中移除,当故障节点再次加入集群,无需手工备份当前数据库并拷贝至故障节点;

  • 应用程序的兼容性:无需更改应用程序,原生的MySQL接口;

  • 生产环境上集群推荐配置3个节点;

  • 每个节点都包含完整的数据副本;

  • 各个节点的同步复制,通过GTID binlog ROW实现。

 

优点:

  1. 真正的多主架构,任何节点都可以进行读写,无需进行读写分离;

    (注:生产环境建议只在一台机器上写,由于集群是乐观锁并发控制,事务冲突的情况会在commit阶段发生。如果有两个事务在集群中不同的节点上对同一行写入并提交,失败的节点将回滚,客户端返回报错,作为DBA你不想被一群开发投诉的话,还是默默的开启Single-Primary写入模式)

  2. 无集中管理,可以在任何时间点失去任何一个节点,集群将正常工作不受影响;

  3. 节点宕机不会导致数据丢失;

  4. 对应用透明。

 

缺点:

  1. 加入新节点,开销大,需要复制完整的数据。

  2. 不能有效的解决写扩展问题,磁盘空间满了,无法自动扩容,不能像MongoDB分片那样自动移动chunk做balance

  3. 有多少个节点就有多少份重复的数据

  4. 由于事务提交需要跨节点通讯(分布式事务),写入会比主从复制慢

  5. 对网络要求非常高,如果网络出现波动或机房被ARP攻击,造成两个节点失联,Group Replication集群发生脑裂,服务将不可用。

 

下面是官方集群节点投票示意图,如果是3个节点,必须满足大多数节点2个投票,这里很像MongoDB副本集的算法吧^_^

 

     

 

集群自身不提供VIP机制,也没有像MongoDB副本集那样提供JAVA/PHP客户端API接口实现故障切换(需要开发自己写,成本较高),需要结合第三方HaProxy软件(建议2块网卡做bond0)+自定义脚本实现秒级故障切换,另通过代理方式,性能会降低,因为多了一层网络转发。

 

局限性:

  • 目前的复制仅仅支持InnoDB存储引擎;

  • 每张表必须有主键;

  • 只支持ipv4网络;

  • 集群最大支持9个节点;

  • 不支持Savepoints;

  • 不支持SERIALIZABLE隔离级别在Multi-Primary多主模式;

  • 不支持外键在Multi-Primary多主模式;

  • 整个集群的写入吞吐量是由最弱的节点限制,如果有一个节点变得缓慢,比如硬盘故障(RAID10坏了一块盘),那么整个集群将是缓慢的。为了稳定的高性能要求,所有的节点应使用统一的硬件。

 

 
3
Group Replication的使用

 

Single-Primary模式配置环境:

 

1、设置host解析

 

三台服务器的配置如下:

 

# cat /etc/hosts

 

192.168.17.133     node1

192.168.17.134     node2

192.168.17.135     node3

 

2、编辑/etc/my.cnf配置参数(三个节点按照如下设置)

 

log-bin = /data/mysql57/binlog/mysql-bin

binlog_format = ROW

sync_binlog = 1

binlog_checksum = NONE

log_slave_updates = 1

gtid_mode = ON

enforce_gtid_consistency = ON

master_info_repository = TABLE

relay_log_info_repository = TABLE

 

3、安装插件

 

INSTALL PLUGIN group_replication SONAME   'group_replication.so';

 

4、设置集群参数(三个节点都执行)

 

set global transaction_write_set_extraction =   "XXHASH64";

set global group_replication_start_on_boot = ON;

set global group_replication_bootstrap_group = OFF;

set global group_replication_group_name =

"13dd01d4-d69e-11e6-9c80-000c2937cddb";

set global group_replication_local_address =   '192.168.17.133:6606';

set global group_replication_group_seeds =

'192.168.17.133:6606,192.168.17.134:6606,192.168.17.135:6606';

set global group_replication_single_primary_mode = ON;

 

注:group_replication_group_name名字要通过select uuid()来生成

group_replication_local_address在节点2和节点3上改成本地IP地址

执行完了,别忘了修改my.cnf里加入到配置文件里。

 

5、节点加入集群

 

Primary节点上执行

 

SET SQL_LOG_BIN=0;

GRANT REPLICATION SLAVE,REPLICATION CLIENT ON *.* TO   'repl'@'%' IDENTIFIED BY 'repl';

FLUSH PRIVILEGES;

SET SQL_LOG_BIN=1;

CHANGE MASTER TO MASTER_USER='repl',

MASTER_PASSWORD='repl' FOR CHANNEL

'group_replication_recovery';

SET GLOBAL group_replication_bootstrap_group=ON;

START GROUP_REPLICATION;

select * from   performance_schema.replication_group_members;

SET GLOBAL group_replication_bootstrap_group=OFF;

 

注:待replication_group_members表查询结果MEMBER_STATE字段状态为ONLINE,再执行关闭初始化。

 

两台Secondary上执行

 

SET SQL_LOG_BIN=0;

GRANT REPLICATION SLAVE,REPLICATION CLIENT ON *.* TO   'repl'@'%' IDENTIFIED BY 'repl';

FLUSH PRIVILEGES;

SET SQL_LOG_BIN=1;

CHANGE MASTER TO MASTER_USER='repl',

MASTER_PASSWORD='repl' FOR CHANNEL

'group_replication_recovery';

START GROUP_REPLICATION;

select * from   performance_schema.replication_group_members;

 

如下图所示,代表集群已经成功运行。

 

 

 
4
Group Replication的维护

 

假如Secondary节点宕机,重启后由于种种原因加入集群失败,现需要重新恢复,步骤如下:

 

1、在另一台Secondary节点上mysqldump全量

 

mysqldump -uroot -p123456 -q --single-transaction

--master-data=2 -B yourDB > /root/yourDB.sql

 

这一步会自动在yourDB.sql里生成

 

SET @@GLOBAL.GTID_PURGED='23e510dc-d30b-11e6-a4c6-b82a72d18b06:1,4d1fd6ec-d2fd-11e6-ae4b-549f3503ab31:1-1543112:2003786-2003789:3003787,e4e34dd3-d2fa-11e6-984b-b82a72d18b06:1';

 

2、导入进去

 

再执行下面的语句即可

 

CHANGE MASTER TO MASTER_USER='repl',

MASTER_PASSWORD='repl' FOR CHANNEL

'group_replication_recovery';

START GROUP_REPLICATION;

 

 
5
Group Replication总结

 

由于5.7.17版本刚刚GA,所以直接上生产环境风险太高,至少1年后小版本超过5.7.40以后再考虑。

 

参考文献:
 

http://mysqlhighavailability.com/gr/doc/background.html


活动预告