:::info 💡 根据 遗忘曲线:如果没有记录和回顾,6天后便会忘记75%的内容
读书笔记正是帮助你记录和回顾的工具,不必拘泥于形式,其核心是:记录、翻看、思考 :::

书名 MySQL高级
作者 程序员小曦
状态 已读完 已读完 已读完
简介 mysql高级知识点

思维导图

用思维导图,结构化记录本书的核心观点。

MySql高级 - 图1

1.数据中的事务控制

1.1.事务相关知识

1.1.1.事务(Transcation,简写为tx)

  • 有一步或几步数据库操作(DML语句)序列组成的逻辑执行单元,这系列操作要么全部执行完成,要么全部执行失败(一组原子性的SQL查询)

    1.1.2.事务的4个特性(ACID性)

  • 原子性、一致性、隔离性、持续性

  • 原子性(Atomicity):事务是数据库的逻辑工作单位,事务中包含的所有操作要么全部提交成功,要么全部失败回滚
  • 一致性(Consistency):事务执行的结果必须是使数据库,从一个一致性状态变成另一个一致性状态
  • 隔离性(Isolation):一个事务所做的修改在提交事务前,对其他事务是不可见的
  • 持久性(Durability):一个事务一旦提交成功,则其做的修改就会永久保存到数据库中,接下来的其他操作或故障不会对其他执行结果有任何影响
  • 事务的(ACID)是通过InnoDB日志和锁来保证:事务的隔离性是通过数据库锁的机制来实现的,原子性和持久性是通过redo log(重做日志)实现,一致性通过undo log来实现
  • 在修改表的数据时,先需要修改其内存拷贝,再把该修改行为记录到重做日志(redo log Buffer)中,在事务结束后再将重做日志写入磁盘,并通知文件系统刷新缓存中的数据到磁盘文件
  • 事务控制的命令:begin 或 start transcation, commit, rollback
  • 事务自动提交:
    • MySQL默认采用自动提交(autocommit=1)模式,即如果不是显式地开始一个事务,则每个查询都被当做一个事务执行提交操作
    • 在执行DDL语句,DCL操作之前会强制提交当前的活动事务
  • 事务并发可能会导致的问题:
    • 脏读:一个事务读到另一个事务未提交的更新数据
    • 不可重复读:一个事务两次读同一行的数据,期间有另一个事务提交了更新,导致两次读到的数据不一样
    • 幻读:一个事务在读取某个范围内的记录时,另外一个事务又在该范围内插入了新的记录,当再次读取该范围的记录时,会产生换行
    • 第一类丢失更新(回滚丢失):撤销一个事务时,把其他事务已提交的更新数据回滚掉了
    • 第二类丢失更新(覆盖丢失):提交一个事务时,把其他已提交的更新数据覆盖掉了
  • 事务设置隔离级别
    • 读未提交:事务中的修改,即使没有提交,对其他事务也都是可见的
    • 读已提交:一个事务开始,只能‘看见’其他已经提交的事务所做的修改
    • 可重复读:同一个事务中多次读取同样记录的结果是一致的,当A事务修改了一条记录但为提交时,B事务将不被允许修改这条记录(会被阻塞,innodb_lock_wait_timeout,默认是50s)
    • 可串行化:事务顺序执行,事务在读取的每一行数据上都加锁
  • InnoDB默认的事务隔离级别是Repeatable Read(可重复读),并且通过间隙锁(next-key-locking)策略防止幻读的出现 | 隔离级别 | 脏读 | 不可重复读 | 幻读 | 第一类丢失更新
    (回滚丢失) | 第二类丢失更新
    (覆盖丢失) | | —- | —- | —- | —- | —- | —- | | READ_UNCOMMITED:读未提交 | √ | √ | √ | × | √ | | READ_COMMITED:读已提交 | × | √ | √ | √ | √ | | REPEATABLE_READ:可重复读 | × | × | √ | √ | √ | | SERIALIZABLE:可串行化 | × | × | × | × | × |

注意:
sql92推荐使用REPEATABLE READ以保证数据读一致性,不过用户可以根据具体的需求选择适合的事务隔离级别。
默认情况下:MySQL不会出现幻读。除非使用select * from 表名 lock in share model;MySQL中锁基于索引机制,也不会出现第一类丢失更新问题

2.数据库锁

根据加锁范围,MySQL里面的锁大致可以分为全局锁,表级锁和行级锁三大类

2.1.全局锁

  • 主要用在全库备份过程中,对所有表进行全局读锁定flush tables with read lock(FTWRL)
  • 在备份过程中整个库完全处于只读状态,客户端断开连接后,MySQL会自动释放这个全局锁

    2.2.表级锁

  • MySQL里边提供两种表级锁:一种是表锁,一种是元数据锁(meta data lock,DML)

    2.2.1.表锁

  • lock tables tb1_name [as alias] {read [local] | [low_priority] write} [, tb1_name [as alias] {read [local] | [low_priority] write}] …:锁定用于当前线程的表,如果一个线程获得对一个表的read锁定,该线程(和其他线程只能从其他线程读取);如果一个线程获得对一个表的write锁定,只有保持锁定的线程可以对表进行写入,其他的线程被阻塞,直到锁定被释放时为止

    • unlock tables:释放被当前线程保持的任何锁定

      2.2.2.元数据锁(MDL)

  • 当对一个表做增删改查操作的时候,加MDL读锁;当要对表做结构调整的时候加MDL写锁

  • MDL不需要显式使用,在访问一个表的时候会被自动加上

    2.2.3.行锁

  • 行锁是在引擎层有各个引擎实现的

    2.2.4.InnoDB的行锁模式及加锁方法

  • InnoDB实现了一下两种类型的行锁:

    • 共享锁(S lock):允许一个事务去读一行数据,组织其他事务获得相同数据集的排它锁
    • 排它锁(X lock):允许获得排它锁的事务更新数据,其他事务取得相同数据集的共享读锁和排他写锁
  • 另外,未来允许行锁和表锁共存,实现多粒度锁机制,InnoDB还有两种内部使用意向锁(Intention Locks),这两种意向锁都是表锁:
    • 意向共享锁(IS Lock):事务打算给数据行加共享锁,事务在给一个数据加共享锁前必须先取得该表的意向共享锁
    • 意向排它锁(IX Lock):事务打算和数据加行排它锁,事务在给一个数据行加排它锁前必须先取得该表的意向排他锁
  • 如果一个事务请求的锁模式与当前的锁兼容,InnoDB就将请求的锁授予该事务;反之,如果两者不兼容,该事务就要等待锁释放
  • 两阶段锁协议:在InnoDB事务中,行锁是需要加的时候才加上,要等到事务结束时才释放,因此如果事务中需要锁多个行,应把最可能造成锁冲突,最可能影响并发读的锁申请时机尽量往后方
  • 加锁方法

    • 意向锁是InnoDB自动加的,不需用户干预
    • 对于update,delete,insert语句,InnoDB会自动给设计数据加排它锁(X)
    • 对于普通select语句,InnoDB不会加任何锁
    • 事务可以通过一下语句显式给记录集加共享锁或排他锁
      • 共享锁(S):select * from table_name where … lock in share mode;
      • 排他锁(X):select * from table_name where … for update;

        2.3.InnoDB行锁的实现方式

  • InnoDB的行锁是通过给索引上的索引项加锁来实现的,如果没有索引,InnoDB将通过影藏的聚簇索引来对记录加锁

  • 如果不通过索引条件检索数据,那么InnoDB将对表中的所有记录加锁,实际效果和表锁一样
  • InnoDB行锁分为三种情况:
    • Record Lock:对索引项加锁
    • Gap Lock:对索引项之间的“间隙”加锁、第一条记录前的“间隙”或最后一条记录后的“间隙”
    • Next-key Lock:前两种的组合,对记录及其前面的间隙加锁
  • 当使用范围条件而不是相等条件检索数据,并请求共享或排他锁时,InnoDB 会给符合条件的已有数据记录的索引项加锁;对于键值在条件范围内但并不存在的记录,叫做间隙(GAP),为了防止幻读以及保证恢复和复制的正确性,InnoDB 也会对这个间隙加锁,这种锁机制就是所谓的 Next-Key 锁

    2.4.死锁和死锁检测

  • 死锁:两个事务都需要获得对方持有的排它锁才能继续完成事务,即循环锁等待

  • 发生死锁后,两种方式接触
    • 等待锁超时:默认innodb_lock_wait_timeout = 50
    • 另一种是死锁检测,InnoDB自动检测到死锁后(默认InnoDB ——dealock_detect = on),主动回滚死锁事务中的某一个事务,让其他事务得以继续执行

死锁检测要耗费大量的 CPU 资源,因为每个新来的被堵住的线程,都需要判断会不会由于自己的加入导致了死锁热点行更新导致的性能问题的解决方法:控制并发度,对于相同行的更新,在进入引擎之前排队,或者将该热点行改成逻辑上的多行_

  • 避免死锁:不同的程序尽量约定以相同的顺序来访问表

    2.5.并发控制机制

    2.5.1.悲观锁

    • 假定一定会发生并发冲突,屏蔽一切可能违反数据完整性的操作,即在查询的时候给这个数据上锁,这个锁排斥其他的修改锁,等到这个线程提交了或者回滚了,其他线程要查这个数据才能往下查使用数据库自身的排它锁机制(写锁):DML 操作自动会加上排它锁,DQL 操作需要手动加上排它锁:select * from 表名 for update

      2.5.2.乐观锁

    • 假设不会发生并发冲突,只在提交更新操作时检查是否违反数据完整性(乐观锁不能解决脏读的问题)在表中额外增加一个列(整数类型),用来表示修改的版本号,修改一次就把版本增加 1,且在提交更新操作时检查版本号使用与之前查询出来的版本号一致(通过判断执行更新操作后的影响行数是否为 0)

      1. select id, name, version from person where id = 10;
      2. update person set name = 'java', version = version + 1
      3. where id = 10 and version = #{version};
  • 并发量不大且不允许脏读,可以使用悲观锁解决并发问题

  • 并发量非常大,悲观锁会带来非常大的性能问题,应选择使用乐观锁
  • 如果每次访问冲突概率小于 20%,推荐使用乐观锁,否则使用悲观锁

    2.5.3.数据库实现事务隔离的两种方式

  • 一种是在读取数据前,对其加锁,阻止其他事务对数据进行修改

  • 另一种是不用加任何锁,通过一定机制生成一个数据请求时间点的一致性数据快照(Snapshot),并用这个快照来提供一定级别(语句级或事务级)的一致性读取,从用户的角度来看,好像是数据库可以提供同一数据的多个版本,因此,这种技术叫做数据多版本并发控制(MultiVersion Concurrency Control,简称 MVCC 或 MCC)

    2.5.4.多版本并发控制

  • InnoDB 的 MVCC 是通过在每行记录后面保存两个隐藏的列来实现的,一个保存了行创建时的系统版本号(行版本号),一个保存行删除时的系统版本号(行删除标识)

    • select 时,InnoDB 只査找符合条件的数据行:行版本号小于或等于当前事务版本,并且行删除标识为未定义或大于当前事务版本号,且两个版本号对应的事务都已经提交
    • update 时,InnoDB 为插入一行新记录,保存当前系统版本号作为行版本号,同时保存当前系统版本号到原来的行作为行删除标识
  • InnoDB 中,每个事务或者语句有自己的一致性读视图(consistent read view),普通查询语句是一致性读(consistent read)
  • 在 RR 隔离级别下,
    • 使用 begin/start transaction 启动事务,一致性视图是在执行第一个快照读语句时创建的,之后事务里的其它查询都共用这个一致性视图
    • 使用 start transaction with consistent snapshot 启动事务,一致性视图是在事务启动时创建的,之后事务里的其它查询都共用这个一致性视图
  • 在 RC 隔离级别下,无论以哪种方式启动事务,每一个语句执行前都会重新算出一个新的视图
  • 更新数据都需要先读后写,而这个读是当前读(current read),即总是读取已经提交完成的最新版本
  • 更新数据时如果当前的记录的行锁被其他事务占用的话,就需要进入锁等待

    2.6.InnoDB存储引擎索引

  • 索引是对数据库表中一列或多列的进行排序的一种结构

image.png

2.7.B + 树索引

  • 分为主键索引/聚集索引(clustered index)和非主键索引/辅助索引/二级索引(secondary index)
  • 联合索引/复合索引:对表上的多个列进行索引,联合索引的最左前缀匹配原则
    • MySQL 会一直向右匹配直到遇到范围查询(>、<、between、like、in)就停止匹配,比如 a = 1 and b = 2 and c > 3 and d = 4,如果建立 (a, b, c, d) 顺序的索引,d 是用不到索引的,如果建立 (a, b, d, c) 的索引则都可以用到,a, b, d 的顺序可以任意调整
    • = 和 in 可以乱序,比如 a = 1 and b = 2 and c = 3 建立 (a, b, c) 索引可以任意顺序,mysql 的查询优化器会优化成索引可以识别的形式
  • 适用于全键值、键值范围或键前缀査找
  • 前缀索引:对于列的值较长,比如 blob、text、varchar,将值的前一部分作为索引
  • 覆盖索引:所需要的数据只需要在索引即可全部获得,不需要再到表中取数据
  • 索引下推(index condition pushdown):在 MySQL 5.6 引入,在索引遍历过程中,对索引中包含的字段先做判断,直接过滤掉不满足条件的记录,减少回表次数

    2.7.1.聚集索引

    image.png

  • InnoDB 存储引擎表是索引组织表,即表中数据按照主键顺序存放

  • 聚集索引:按照表的主键构造一棵 B+ 树,同时叶子节点中存放整张表的行记录数据,也将聚集索引的叶子节点称为数据页
  • 每张表只能拥有一个聚集索引

    2.7.2.辅助索引 / 非聚集索引

    image.png

  • 叶子节点不包含行记录的全部数据

  • 叶子节点除了包含键值以外,还包含了主键值
  • 当通过辅助索引来寻找数据时,InnoDB 存储引擎会遍历辅助索引并通过叶级别的指针获得指向主键索引的主键,然后再通过主键索引来找到一个完整的行记录(回表)

    2.7.3.哈希索引

  • InnoDB 存储引擎支持的哈希索引是自适应的,InnoDB 存储引擎会根据表的使用情况自动为表生成哈希索引,不能人为干预是否在一张表中生成哈希索引

  • InnoDB utilizes hash indexes internally for its Adaptive Hash Index feature. InnoDB Storage Engine Features

    2.7.4.全文检索(Full-Text Search)

  • 全文检索通常使用倒排索引(inverted index)来实现

  • 在辅助表(auxiliary table)中存储单词与单词自身在一个或多个文档中所在位置之间的映射
  • 通常利用关联数组,其表现形式:{word, Documentld}(inverted file index)或者 {word, (Documentld, Position) }(full inverted index)
  • InnoDB 存储引擎采用 full inverted index 的方式:索引表中的每一项都包括一个属性值和具有该属性值的各记录的地址

    2.8.索引的利弊

  • 索引的好处

    • 提高表数据的检索效率
    • 如果排序的列是索引列,大大降低排序成本
    • 在分组操作中如果分组条件是索引列,也会提高效率
  • 索引需要额外的维护成本:当数据做 update、insert、delete 时,也需对相关索引数据进行处理,因此会降低 update、insert、delete 效率

    2.9.建立与使用索引

  • 在经常用作过滤条件或进行 order by、group by 的字段上建立索引

  • 在用于连接的列(主键/外键)或排序的列上建立索引
  • 不要在选择性非常差的字段上建立索引
  • 对于经常更新的列避免建立索引
  • 在经常存取的多个列上建立复合索引,但要注意复合索引的建立顺序要按照使用的频度来确定
  • 建立的索引支持多种过滤条件:在索引中加入更多的列,并通过 IN( ) 的方式覆盖那些不在 WHERE 子句中的列
  • 避免多个范围条件:对于范围条件查询,MySQL 无法再使用范围列后面的其他索引列
  • 重建索引
    • 重建主键索引:alter table t engine=InnoDB
    • 重建普通索引:alter table t drop index k; alter table t add index(k);
  • 使用 force index 强行选择一个索引,如 select * from t force index(k)

    2.10.索引的限制

  • blob 和 text 类型的列只能创建前缀索引

  • 过滤字段使用了函数运算后(如 abs(column)),MySQL 无法使用索引
  • 使用不等于(!= 或者 <>)的时候 MySQL 无法使用索引
  • 使用 like 操作的时候如果条件以通配符开始(’%abc…’),MySQL 无法使用索引
  • 使用非等值查询的时候 MySQL 无法使用 Hash 索引
  • 如果 MySQL 估计使用全表扫描要比使用索引快,则不使用索引

    3.查询性能优化

    MySql高级 - 图5

  • 客户端发送一条査询给服务器

  • 服务器先检査査询缓存,如果命中了缓存,则立刻返回存储在缓存中的结果,否则进入下一阶段(如果査询缓存是打开的)
  • 解析器、预处理器对 SQL 语句进行解析、预处理,再由优化器生成对应的执行计划(一棵指令树)
  • 执行器根据优化器生成的执行计划,调用存储引擎的 API 来执行査询
  • 将结果返回给客户端,并存放到査询缓存

MySQL 8.0 版本直接将查询缓存的整块功能删掉了,也就是说 8.0 开始彻底没有这个功能了

4.性能优化相关命令

4.1.EXPLAIN命令

  • 使用方式:explain 待执行的 SQL
  • id:执行查询的序列号
  • select_type:使用的查询类型
    • SIMPLE:除子查询或者 union 之外的其它查询
    • PRIMARY:子查询中的最外层查询
    • SUBQUERY:子查询内层查询的第一个 select,结果不依赖于外部查询结果集
    • DEPENDENT SUBQUERY:子查询中内层的第一个 select,依赖于外部查询的结果集
    • DERIVED:在 from 子句的子查询中的 select
    • UNION:union 语句中第二个 select 开始的后面所有 select,第一个 select 为 PRIMARY
    • DEPENDENT UNION:子查询中的 union,且为 union 中从第二个 select 开始的后面所有 select,同样依赖于外部查询的结果集
    • UNCACHEABLE SUBQUERY:结果集无法缓存的子查询
    • UNION RESULT:union 中的合并结果
  • table:这次查询访问的数据表
  • type:对表所使用的访问方式:all | index | range | ref | eq_ref | const, system | null,从左至右,性能由最差到最好
    • all:全表扫描
    • index:全索引扫描(遍历整个索引来査询匹配的行)
    • rang:对索引进行范围检索
    • ref:使用非唯一索引扫描或唯一索引的前缀扫描
    • eq_ref:最多只会有一条匹配结果,一般是通过主键或者唯一键索引来访问
    • ref_or_null:与 ref 的唯一区别就是在使用索引引用查询之外再增加一个空值的查询
    • index_merge:查询中同时使用两个(或更多)索引,然后对索引结果进行 merge 之后再读取表数据
    • index_subquery:子查询中的返回结果字段组合是一个索引(或索引组合),但不是一个主键或者唯一索引
    • unique_subquery:子查询中的返回结果字段组合是主键或者唯一约束
    • const:读常量,且最多只会有一条记录匹配,由于是常量,所以实际上只需要读一次
    • system:系统表,表中只有一行数据
  • possible_keys:查询时可能使用的索引,如果没有使用索引,为 null
  • key:实际使用的索引
  • key_len:使用到索引字段的长度
  • ref:过滤的方式,比如 const(常量),column(join),func(某个函数)
  • rows:扫描行的数量(通过收集到的统计信息估算,重新统计索引信息 analyze table t)
  • filtered:针对表里符合某个条件(where 子句或联接条件)的记录数的百分比所做的一个悲观估算,把 rows 列和这个百分比相乘可以得到 MySQL 估算它将和查询计划里前一个表关联的行数
  • Extra:查询中每一步实现的额外细节信息

    • Using index:所需要的数据只需要在 Index 即可全部获得,而不需要再到表中取数据
    • Using temporary:使用临时表,主要常见于 group by 和 order by 等操作中
    • Using where:如果不是读取表的所有数据,或者不是仅仅通过索引就可以获取所有需要的数据,则会出现 Using where 信息
    • Using filesort:当查询中包含 order by 操作,而且无法利用索引完成排序操作的时候,MySQL 查询优化器不得不选择相应的排序算法来实现
    • Distinct:查找 distinct 值,所以当 mysql 找到了第一条匹配的结果后,将停止该值的查询而转为后面其他值的查询
    • Full scan on NULL key:子查询中的一种优化方式,主要在遇到无法通过索引访问 null 值的使用使用
    • Not exists:在某些左连接中 MySQL 查询优化器所通过改变原有查询的组成而使用的优化方法,可以部分减少数据访问次数
    • No tables:查询语句中使用 from dual 或者不包含任何 from 子句
    • Impossible WHERE noticed after reading const tables:MySQL 查询优化器通过收集到的统计信息判断出不可能存在结果
    • Select tables optimized away:当我们使用某些聚合函数来访问存在索引的某个字段的时候,MySQL 查询优化器会通过索引而直接一次定位到所需的数据行完成整个查询。当然,前提是在查询中不能有 group by 操作。如使用 min() 或者 max() 的时候
    • Using index for group-by:数据访问和 Using index 一样,所需数据只需要读取索引即可,而当查询中使用了 group by 或者 DISTINCT 子句的时候,如果分组字段也在索引中,Extra 中的信息就会是 Using index for group-by
    • Using where with pushed condition:这是一个仅仅在 NDBCluster 存储引擎中才会出现的信息,而且还需要通过打开 Condition Pushdown 优化功能才可能会被使用,控制参数为 engine_condition_pushdown

      4.2.使用Profiling分析SQL语句

  • 在 Session 级别开启 profiling:set profiling = 1;

  • 执行查询,在 profiling 过程中所有的 query 都可以记录下来
  • 查看记录的 query:show profiles;
  • 选择要查看的 profile:show profile for query 1;
  • 选择要查看的 profile 的 cpu、block io 明细:show profile cpu, block io for query 1;

    4.3.慢查询分析

  • 慢査询日志相关配置选项:

    • slow_query_log:设置是否打开慢査询日志的开关,默认值为 off
    • long_query_time:定义慢查询的时间,单位为秒,默认值为 10
    • slow_query_log_file: 设置慢查询日志文件的路径

      4.4.常见的查询优化

  • 优化表结构:适当使用冗余数据;大表拆小表,有大数据的列(如类型为text)单独拆除一张表;把常用属性分离成小表

  • 字段尽可能地设置为not null
  • 切分查询:将大查询切分成小查询
  • 分解关联查询:对每一个表进行一次单表查询,然后将结果在应用层中进行关联,优点:让缓存的效率更高,执行单表查询可以减少锁的竞争,可以对数据库进行拆分,可以使用 in( ) 代替关联查询
  • 优化关联查询:考虑到关联的顺序,确保on或者using子句中的列上有索引;确保任何的 group by 和 order by 中的表达式只涉及到一个表中的列;小结果集驱动大结果集;在 on 或者 using 子句后加上过滤条件对右边表做过滤
  • 优化子查询:尽可能使用关联査询代替
  • 优化 count() 查询:使用 count(*) 统计行数;使用近似值;增加汇总表
  • 优化 limit 分页:利用延迟关联或者子查询优化超多分页场景:当 offset 特别大时,先快速定位需要获取的 id 段,然后再关联,即 select a.* from table_1 a, (select id from table_1 where 条件 limit 100000, 20 ) b where a.id = b.id
  • 其它尽量避免使用负向查询:not、!=、<>、!<、!>、not exists、not in、not like 等尽量避免在 where 子句中使用 or 来连接条件,同一字段改用 in,不同一字段改用 union

    5.MySQL复制

    5.1.复制的工作原理

    image.png

  • 主库(master)把数据更改记录到二进制日志(bin log)中

  • 主库创建一个用户以用来从库远程连接
  • 从库(slave)I/O 线程跟主库建立一个普通的客户端连接,将主库上的二进制日志内容复制到自己的中继日志(relay log)中(主库发送信号量通知其有新的事件产生)
  • 从库 SQL 线程将中继日志中新增加的日志内容解析成 SQL 语句,并在自身从数据库上按顺序执行这些 SQL 语句

    5.2.主要功能

  • 由于从库复制是异步的,所以从库上可能会存在脏数据

  • 读 / 写分离:将不能容忍脏数据的读査询和写分配到分配到主库,其它的读(如评论、报表、日志等)査询分配到从库
  • 数据库备份、数据分布、读取的负载平衡、高可用性和故障转移

    5.3.使用 Keepalived 实现主从自动切换

  • 使用 Spring 的 AbstractRoutingDataSource 实现多数据源切换

  • DataSource 以 key-value 形式存储,根据传入的 key 值切换到对应的 DataSource 上

    5.4.数据库分库分表中间件

    5.4.1.Mycat

    image.png

  • Mycat 核心配置文件

    • server. xml:配置连接 Mycat 的用户名、密码、数据库名
    • schema xml:配置 schema、datanode、datahost
    • rule. xml:分片规则
  • Mycat 常用的分片规则:取模范围分片、一致性 hash 分片、范围分片、枚举分片、取模分片、日期分片、按月分片、冷热数据分片

    5.4.2.Sharding-JDBC

    5.4.3.Sharding Proxy