当前位置 博文首页 > JavaEdge全是干货的技术号:备库为什么会延迟好几个小时?

    JavaEdge全是干货的技术号:备库为什么会延迟好几个小时?

    作者:[db:作者] 时间:2021-07-21 09:41

    之前的文章谈到的事故原因,不论是偶发性的查询压力,还是备份,对备库延迟的影响一般是分钟级的,而且在备库恢复正常以后都能够追上来。

    但若备库执行日志的速度持续低于主库生成日志的速度,那该延迟可能小时级别。而且对于一个压力持续较高的主库,备库可能永远都追不上主库节奏了。

    这就牵涉本文话题:备库并行复制能力。

    • 主备流程图

    图中两个黑色箭头:

    • 一个代表客户端写入主库
      并行度高于下一个
    • 另一个代表备库上sql_thread执行中转日志(relay log)

    主库上影响并发度的原因就是锁。由于InnoDB引擎支持行锁,除了所有并发事务都在更新同一行(热点行)这种极端场景,它对业务并发度的支持还是可以的。所以,你在性能测试的时候会发现,并发压测线程32就比单线程时,总体吞吐量高。

    而日志在备库执行,即图中备库上sql_thread更新数据(DATA)的逻辑。若用单线程,就会导致备库应用日志不够快,造成主备延迟。

    在5.6版本前,MySQL只支持单线程复制,由此在主库并发高、TPS高时就会出现严重主备延迟。

    MySQL多线程复制的演进史

    所有的多线程复制机制,都是要把图中只有一个线程的sql_thread,拆成多个线程,也就是都符合下面的这个模型:

    coordinator就是原来的sql_thread, 不过它不再直接更新数据,只负责读取中转日志、分发事务。真正更新日志的,变成了worker线程。而work线程的个数,就是由参数slave_parallel_workers决定。推荐设为8~16之间最好(32核物理机),毕竟备库还可能要提供读查询,不能把CPU占完。

    事务能否按轮询分发给各worker?

    不行。因为,事务被分发给worker后,不同的worker就独立执行了。但由于CPU的调度策略,可能第二个事务比第一个事务先执行。而这时刚好这俩事务更新同一行,即同一行上的两个事务,在主库和备库上的执行顺序相反,导致主备不一致。

    同一个事务的多个更新语句,能否分给不同worker执行?

    不行。比如一个事务更新了表t1和表t2中的各一行,若这两条更新语句被分到不同worker,虽然最终结果是主备一致,但若表t1执行完成瞬间,备库有个查询,就会看到这个事务“更新了一半的结果”,破坏了事务逻辑的隔离性。

    所以,coordinator在分发的时候,需要满足:

    • 不能造成更新覆盖。这就要求更新同一行的两个事务,必须被分发到同一个worker中
    • 同一个事务不能被拆开,必须放到同一个worker中

    MySQL 5.5的并行复制策略

    官方MySQL 5.5版本不支持并行复制。但是有人写了:按表分发策略和按行分发策略,以帮助理解MySQL官方版本并行复制策略的迭代。

    按表分发策略

    若两个事务更新不同表,它们就可以并行。因为数据是存储在表里的,所以按表分发,可以保证两个worker不会更新同一行。

    当然,若有跨表事务,还是要把两张表放在一起考虑

    • 按表并行复制程模型

    每个worker线程对应一个hash表,保存当前正在这个worker的“执行队列”里的事务所涉及的表。hash的

    • key:库名.表名
    • value:数字,队列中有多少个事务修改这个表

    在有事务分配给worker时,事务里涉及的表会被加到对应的hash表中。worker执行完成后,这个表会被从hash表中去掉。

    上图中的hash_table_1表示,现在worker_1的“待执行事务队列”里,有4个事务涉及到db1.t1表,有1个事务涉及到db2.t2表。

    假设图中的情况下,coordinator从中转日志读入一个新事务T,该事务修改的行涉及表t1、t3。

    现在用事务T的分配流程,来看一下分配规则:

    1. 由于事务T中涉及修改t1,而worker_1队列中已经有其它事务Tx在修改t1,T和队列中的Tx事务要修改同一个表的数据:T和worker_1冲突
    2. 按此逻辑,顺序判断T和每个worker队列是否冲突,会发现事务T跟worker_2也冲突
    3. T跟多于1个的worker冲突,coordinator线程就进入等待
    4. 每个worker继续执行,同时修改hash_table。假设hash_table_2里面涉及到修改t3的事务执行完成了,就会去掉hash_table_2中的把db1.t3
    5. 这样coordinator会发现跟T冲突的worker只有worker_1(不多于1个了),因此就把它分配给worker_1
    6. coordinator继续读下一个中转日志,继续分配事务

    即每个事务在分发时,跟所有worker的冲突关系如下:

    • 和所有worker都不冲突
      coordinator线程就会把这个事务分配给最空闲的woker;
    • 和多于1个的worker冲突
      coordinator线程就进入等待状态,直到和这个事务存在冲突关系的worker只剩下1个
    • 只和一个worker冲突
      coordinator线程就会把这个事务分配给这个存在冲突关系的worker。

    按表分发方案在多个表负载均匀场景里使用很好。但若碰到热点表,比如所有更新事务都会涉及到某个表时,所有事务都会被分配到同一worker,就变成单线程复制。

    按行分发

    要解决热点表并行复制问题,就需要个按行并行复制的方案。

    • 思路
      若俩事务没有更新同一行,它们在备库上可以并行执行。所以该模式要求binlog是row格式。

    这时判断一个事务T和worker是否冲突,用的就规则就不是“修改同一个表”,而是“修改同一行”。

    按行复制和按表复制的数据结构差不多,都是为每个worker,分配一个hash。
    只是按行分发的key是库名+表名+唯一键的值

    但该 唯一键 只有主键id还不够,考虑如下场景,t1除了主键,还有唯一索引a:

    CREATE TABLE `t1` (
      `id` int(11) NOT NULL,
      `a` int(11) DEFAULT NULL,
      `b` int(11) DEFAULT NULL,
      PRIMARY KEY (`id`),
      UNIQUE KEY `a` (`a`)
    ) ENGINE=InnoDB;
    
    insert into t1 values(1,1,1),(2,2,2),(3,3,3),(4,4,4),(5,5,5);
    

    要在主库执行俩事务:

    session_1session_2
    update t1 set a=6 where id=1;
    update t1 set a=1 where id=2;

    这俩事务要更新的行的主键不同,但若它们被分到不同worker,可能session2先执行。这时id=1的行的a的值还是1,就会报唯一键冲突。

    所以基于行策略,事务hash表中还需考虑唯一键,即key应该是 库名+表名+索引a的名字+a的值

    在t1执行

    update t1 
    set a=1 
    where id=2
    

    在binlog里记录整行的数据修改前各字段值和修改后各字段值。因此,coordinator在解析该语句的binlog时,该事务的hash表就有三项:

    • key=hash_func(db1+t1+“PRIMARY”+2), value=2
      value=2是因为修改前后的行id值不变,出现了两次
    • key=hash_func(db1+t1+“a”+2), value=1
      会影响到这个表a=2的行
    • key=hash_func(db1+t1+“a”+1), value=1
      会影响到这个表a=1的行

    相比按表并行分发策略按行并行策略在决定线程分发时,要消耗更多计算。
    这俩方案都有一些约束条件:

    • 要能够从binlog里面解析出表名、主键值和唯一索引值。即主库binlog必须是row
    • 表必须有主键
    • 不能有外键
      表若有外键,级联更新的行不会记录在binlog,冲突检测就不准确

    还好这些本就是DB生产使用规范。

    按行分发策略的并行度更高。不过,若是大事务,按行分发策略有如下问题:

    • 耗费内存
      比如一个语句要删除100万行数据,这时候hash表就要记录100万个项
    • 耗费CPU
      解析binlog,然后计算hash值,对于大事务,该成本很高

    所以,按行分发策略要设置一个阈值,单个事务若超过设置的行数阈值(比如,如果单个事务更新的行数超过10w行),就暂时退化为单线程模式,退化过程的逻辑大概是这样的:

    1. coordinator暂时先hold住这个事务
    2. 等待所有worker都执行完成,变成空队列
    3. coordinator直接执行这个事务
    4. 恢复并行模式

    MySQL 5.6官方的并行复制策略

    支持的粒度是按库并行。理解了之前说的两个策略,就懂得用于决定分发策略的hash表里,key就是数据库名。

    该策略的并行效果,取决于压力模型。若在主库上有多个DB,并且各个DB的压力均衡,使用这个策略的效果会很好。

    相比于按表、行分发,该策略有如下优势:

    • 构造hash值的时候很快
      只需要库名,而且一个实例上DB也不会很多
    • 不要求binlog格式
      因为statement格式的binlog也可以很容易拿到库名

    如下场景失效:

    • 你的主库上的表都放在同一个DB
    • 不同DB的热点不同,比如一个是业务逻辑库,一个是系统配置库,也起不到并行效果

    理论上你可以创建不同的DB,把相同热度的表均匀分到这些不同的DB中,强行使用这个策略。不由于需要特地移动数据,该策略用得并不多。

    MariaDB的并行复制策略

    MariaDB的并行复制策略利用了redo log组提交(group commit)优化:

    • 能够在同一组里提交的事务,一定不会修改同一行
    • 主库上可以并行执行的事务,备库上也一定可以并行执行

    在实现上,MariaDB是这么做的:

    1. 在一组里面一起提交的事务,有一个相同的commit_id,下一组就是commit_id+1
    2. commit_id直接写到binlog
    3. 传到备库应用的时候,相同commit_id的事务分发到多个worker执行
    4. 这一组全部执行完成后,coordinator再去取下一批。

    当时该策略相当惊艳。因为,之前业界的思路都是在“分析binlog,并拆分到worker”上。而MariaDB的这个策略,目标是“模拟主库的并行模式”。

    但有个问题,它并没有实现“真正的模拟主库并发度”这个目标。在主库上,一组事务在commit时,下一组事务是同时处于“执行中”状态。

    看下图,假设三组事务在主库的执行情况,在trx1、trx2和trx3提交时,trx4、trx5和trx6是在执行的。这样,在第一组事务提交完成时,下一组事务很快就会进入commit状态。

    • 主库并行事务

    而按MariaDB的并行复制策略,备库上的执行效果如下:

    在备库执行时,要等第一组事务完全执行完成后,第二组事务才能开始执行,这样系统吞吐量就不够。

    另外,该方案很容易被大事务拖累。假设trx2是一个超大事务,那么在备库应用的时候,trx1和trx3执行完成后,就只能等trx2完全执行完成,下一组才能开始执行。这段时间,只有一个worker线程在工作,是对资源的浪费。

    不过即使如此,这个策略仍然是一个很漂亮的创新。因为,它对原系统的改造非常少,实现也优雅。

    MySQL 5.7的并行复制策略

    在MariaDB并行复制实现之后,官方的MySQL5.7版本也提供了类似功能,由参数slave-parallel-type来控制并行复制策略:

    • DATABASE
      表示使用MySQL 5.6版本的按库并行策略;
    • LOGICAL_CLOCK
      类似MariaDB的策略。不过,MySQL 5.7这个策略,针对并行度做了优化。这个优化的思路也很有趣儿。

    同时处于“执行状态”的所有事务,是不是可以并行?
    不能。因为,这里面可能有由于锁冲突而处于锁等待状态的事务。若这些事务在备库上被分配到不同的worker,就会出现备、主库不一致。

    而MariaDB这个策略的核心,是“所有处于commit”状态的事务可以并行。事务处于commit状态,表示已通过锁冲突的检验。

    • 回顾一下两阶段提交

      不用等到commit阶段,只要能够到达redo log prepare阶段,就表示事务已通过锁冲突检验。

    因此,MySQL 5.7并行复制策略的思想是:

    • 同时处于prepare状态的事务,在备库执行时是可以并行的
    • 处于prepare状态的事务,与处于commit状态的事务之间,在备库执行时也是可以并行的

    binlog组提交的参数:

    • binlog_group_commit_sync_delay
    • binlog_group_commit_sync_no_delay_count

    这两个参数是用于故意拉长binlog从write到fsync的时间,以此减少binlog的写盘次数。在MySQL 5.7的并行复制策略里,它们可以用来制造更多的“同时处于prepare阶段的事务”。这样就增加了备库复制的并行度。即两个参数,既可以“故意”让主库提交得慢些,又可以让备库执行得快些。在MySQL 5.7处理备库延迟的时候,可以考虑调整这两个参数值,来达到提升备库复制并发度的目的。

    MySQL 5.7.22的并行复制策略

    在2018年4月份发布的MySQL 5.7.22版本里,MySQL增加了一个新的并行复制策略,基于WRITESET的并行复制。

    新增了一个参数binlog-transaction-dependency-tracking,控制是否启用该策略:

    • COMMIT_ORDER
      表示的就是前面介绍的,根据同时进入prepare和commit来判断是否可以并行的策略。
    • WRITESET
      表示的是对于事务涉及更新的每一行,计算出这一行的hash值,组成集合writeset。如果两个事务没有操作相同的行,也就是说它们的writeset没有交集,就可以并行。
    • WRITESET_SESSION
      在WRITESET的基础上多了一个约束,即在主库上同一个线程先后执行的两个事务,在备库执行的时候,要保证相同的先后顺序。

    为了唯一标识,这个hash值是通过库名+表名+索引名+值得。若一个表上除了有主键索引外,还有其他唯一索引,那么对于每个唯一索引,insert语句对应的writeset就要多增加一个hash。

    这跟我们前面介绍的基于MySQL 5.5版本的按行分发的策略差不多。不过,MySQL官方的这个实现还是有很大的优势:

    • writeset是在主库生成后直接写入到binlog里面的,这样在备库执行的时候,不需要解析binlog内容(event里的行数据),节省了很多计算量
    • 不需要把整个事务的binlog都扫一遍才能决定分发到哪个worker,更省内存
    • 由于备库的分发策略不依赖于binlog内容,所以binlog是statement格式也是可以的。

    因此,MySQL 5.7.22的并行复制策略在通用性上还是有保证的。

    当然,对于“表上没主键”和“外键约束”的场景,WRITESET策略也是没法并行的,也会暂时退化为单线程模型。

    小结

    为什么要有多线程复制呢?这是因为单线程复制的能力全面低于多线程复制,对于更新压力较大的主库,备库是可能一直追不上主库的。从现象上看就是,备库上seconds_behind_master的值越来越大。

    在介绍完每个并行复制策略后,我还和你分享了不同策略的优缺点:

    如果你是DBA,就需要根据不同的业务场景,选择不同的策略;
    如果是你业务开发人员,也希望你能从中获取灵感用到平时的开发工作中。
    从这些分析中,你也会发现大事务不仅会影响到主库,也是造成备库复制延迟的主要原因之一。因此,在平时的开发工作中,我建议你尽量减少大事务操作,把大事务拆成小事务。

    官方MySQL5.7版本新增的备库并行策略,修改了binlog的内容,也就是说binlog协议并不是向上兼容的,在主备切换、版本升级的时候需要把这个因素也考虑进去。

    cs