MySQL运维

1.日志

1.错误日志

  • 错误日志是 MySQL 中最重要的日志之一,它记录了当mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。

  • 当数据库出现任何故障导致无法正常使用时,建议首先查看此日志。

  • 该日志是默认开启的,默认存放目录/var/log/,默认的日志文件名为mysqld.log。查看日志位置:

1
show variables like '%log_error%';

2.二进制日志

1.介绍

  • 二进制日志(binlog)记录了所有ddl(数据定义语言)语句和dml(数据操纵语言)语句,但不包括数据查询(select,show)语句

  • 作用:

    • 灾难时的数据恢复,数据库崩溃后再次执行二进制日志中的内容就可以恢复

    • MySQL的主从复制。在MySQL8版本中,默认二进制日志是开启的,涉及参数:

1
show variables like '%log_bin%';
  • 可以查询到:

    • log_bin:开启或关闭
    • log_bin_basename:日志文件位置,文件由binlog和编号组成
    • log_bin_index:索引文件位置

2.日志格式

日志格式 含义
statement 基于SQL语句的日志记录,记录的是SQL语句,对数据进行修改的SQL都会记录在日志文件中
row 基于行的日志记录,记录的是每一行的数据变更(默认)
mixed 混合了statement和row两种格式,默认采用statement,在某些特殊情况下会自动切换为row进行记录
1
show variables like '%binlog_format%';

# 查询日志格式

# 需要在文件中修改日志格式

# 修改后会在新的日志文件中记录

3.日志查看

  • 由于日志是以二进制方式存储的,不能直接读取,需要通过二进制日志查询工具mysqlbinlog来查看

  • 语法:

1
mysqlbinlog 选项 日志文件名
  • 选项:

    • -d,指定数据库名称,只列出指定的数据库相关操作
    • -o,忽略掉日志中的前n行命令
    • -v,将行事件(数据变更)重构为SQL语句
    • -w,将行事件(数据变更)重构为SQL语句,并输出注释信息

4.日志删除

  • 对于比较繁忙的业务系统,每天生成的binlog数据巨大,如果长时间不清除,将会占用大量磁盘空间
指令 含义
reset master; 删除全部binlog日志,删除之后,日志编号,将从binlog.000001重新开始
purge master logs to ‘binlog.xxxxxx’; 删除xxxxxx编号之前的所有日志(此编号不会被删除)
purge master logs before ‘yyyy-mm-dd hh24:mi:ss’; 删除日志为’yyyy-mm-dd hh24:mi:ss’之前产生的所有日志
  • 也可以在mysql的配置文件中配置二进制日志的过期时间,设置后,二进制日志过期会自动删除
1
show variables like '%binlog_expire_logs_seconds%';

# 默认30天

3.查询日志

  • 查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。默认情况下,查询日志是未开启的

  • 涉及参数:general_log

  • 修改MySQL的配置文件/etc/my.cnf文件,添加内容:

  • general_log=1

# 开启

  • general_log_file=目录/文件名

# 指定文件名,默认文件名为主机名.log

4.慢查询日志

  • 慢查询日志记录了所有执行时间超过参数long_query_time 设置值并且扫描记录数不小于min_examined_rowlimit的所有的SQL语句的日志,默认未开启。long_query_time 默认为10秒,最小为0,精度可以到微秒。

  • 默认情况下,不会记录管理语句,也不会记录不使用索引进行查找的查询。可以在MySQL的配置文件/etc/my.cnf文件中修改log_slow_admin_statements和更改此行为log_queries_not_using_indexes

  • log_slow_admin_statements=1

# 记录执行较慢的管理语句

  • log_queries_not_using_indexes=1

# 记录执行较慢的未使用索引的语句

2.主从复制

1.概述

  • 主从复制是指将主数据库的DDL 和 DML操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库(slave)和主库(master)的数据保持同步。

  • MySQL支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制。

  • 作用:

    • 1.主库出现问题,可以快速切换到从库提供服务。
    • 2.实现读写分离,降低主库的访问压力。
    • 3.可以在从库中执行备份,以避免备份期间影响主库服务。

2.原理

  • 主要分为三步:
    • 1.Master 主库在事务提交时,会把数据变更记录在二进制日志文件 binlog中。
    • 2.从库的IOthread读取主库的二进制日志文件 binlog,写入到从库的中继日志Relay Log。
    • 3.slave从库的SQLthread读取中继日志,再将改变反映它自己的数据。

3.搭建

1.服务器准备

  • 主库和从库

  • 关闭服务器的防火墙

1
systemctl stop firewalld

# 关闭防火墙

1
systemctl disable firewalld

# 关闭防火墙的开机自启动

  • 或者
  • 开放指定的端口号

2.主库配置

1.修改配置文件/etc/my.cnf
  • server-id=1

# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1,默认为1

  • read-only=0

# 是否只读,1代表只读,0代表读写

  • binlog-ignore-db=数据库名

# 忽略数据库,指不需要同步的数据库

  • binlog-do-db=数据库名

# 指定同步的数据库

2.重启MySQL服务器
1
systemctl restart mysqld

# 没有报错则配置成功

3.登录mysql,创建远程连接的账号,并授予主从复制权限
1
create user '用户名'@'%'identified with mysql_native_password by '密码';

# 创建用户,并设置密码,因为主机名设置为%所以该用户可在任意主机连接该MySQL服务

1
grant replication slave on *.* to '用户名'@'%';

# 为用户分配主从复制权限

4.通过指令,查看二进制日志坐标
1
show master status;
  • 字段含义说明:

    • file:从哪个日志文件开始推送日志文件
    • position:从哪个位置开始推送日志
    • binlog_ignore_db:指定不需要同步的数据库

3.从库配置

1.修改配置文件/etc/my.cnf
  • server-id=2

# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1,和主库不一样即可

  • read-only=1

# 是否只读,1代表只读,0代表读写

  • super-read-only=1

# 可以将超级管理员也设置为只读,否则也能读写

2.重启MySQL服务器
1
systemctl restart mysqld

# 没有报错则配置成功

3.登录mysql,设置主库配置
1
change replication source to source_host='原主机ip地址',source_user='用户名',source_password='密码',source_log_file='对应二进制日志文件',source_log_pos=从日志中的哪个位置开始同步;

# 从日志中的哪个位置开始同步,可以查看二进制日志坐标中的position

  • 老版本
1
change master to master_host='原主机ip地址',master_user='用户名',master_password='密码',master_log_file='对应二进制日志文件名',master_log_pos=从日志中的哪个位置开始同步;
4.开启同步操作
1
start replica;
  • 老版本(新版本也兼容)
1
start slave;
5.查看主从同步状态
1
show replica status;
  • 老版本
1
show slave status;

# 状态中Replica_IO_RunningReplica_SQL_RunningYes 说明主从复制正常

3.分库分表

1.介绍

1.问题分析

  • 随着互联网及移动互联网的发展,应用系统的数据量也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈:

    • 1.IO瓶颈:热点数据太多,数据库缓存不足,产生大量磁盘IO,效率较低。请求数据太多,带宽不够,网络IO瓶颈。
    • 2.CPU瓶颈:排序、分组、连接查询、聚合统计等SQL会耗费大量的CPU资源,请求数太多,CPU出现瓶颈。
  • 分库分表的中心思想都是将数据分散存储,使得单一数据库/表的数据量变小来缓解单一数据库的性能问题,从而达到提升数据库性能的目的。

2.拆分策略

  • 垂直拆分

    • 垂直分库:以表为依据,根据业务将不同表拆分到不同库中。
      • 每个库的表结构都不一样
      • 每个库的数据也不一样
      • 所有库的并集是全量数据
    • 垂直分表:以字段为依据,根据字段属性将不同字段拆分到不同表中。
      • 每个表的结构都不一样
      • 每个表的数据也不一样,一般通过一列(主键/外键)关联
      • 所有表的并集是全量数据
  • 水平拆分

    • 水平分库:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。
      • 每个库的表结构都一样
      • 每个库的数据都不一样
      • 所有库的并集是全量数据
    • 水平分表:以字段为依据,按照一定策略,将一个表的数据拆分到多个库中。
      • 每个表的表结构都一样
      • 每个表的数据都不一样
      • 所有表的并集是全量数据

3.实现技术

  • shardingJDBC:基于AOP原理,在应用程序中对本地执行的SQL进行拦截,解析、改写、路由处理。需要自行编码配置实现,只支持java语言,性能较高。
  • MyCat:数据库分库分表中间件,不用调整代码即可实现分库分表,支持多种语言,性能不及前者。

2.MyCat概述

1.介绍

  • Mycat是开源的、活跃的、基于Java语言编写的MySQL数据库中间件。mycat伪装了mysql的协议,所以可以像使用mysql一样来使用mycat,对于开发人员来说根本感觉不到mycat的存在。

  • 优势:

    • 性能可靠稳定
    • 强大的技术团队
    • 体系完善
    • 社区活跃
  • MyCat中间件服务器需要安装jdk和mycat

  • mycat解压后有主要四个目录:

    • bin:存放可执行文件,用于启动停止mycat
    • conf:存放mycat的配置文件
    • lib:存放mycat的项目依赖包(jar)
    • logs:存放mycat的日志文件

2.概念介绍

  • 逻辑结构:
  • 逻辑库
    • 逻辑表
      • 分片节点
  • 物理结构:
  • 节点主机(与分片节点相连)

3.MyCat入门

1.需求

  • 由于 tb_order 表中数据量很大,磁盘IO及容量都到达了瓶颈,现在需要对tb_order表进行数据分片,分为三个数据节点,每一个节点主机位于不同的服务器上。

2.环境准备

  • 需要在三台服务器上都建立一个空的数据库
  • 将防火墙关闭或者直接开放指定端口

3.分片配置(schema.xml)

  • 修改mycat中conf中的schema.xml文件

# 可以用notepad++的插件NppFTP,show NppFTP Windows,便于编辑

  • 1.配置table(逻辑表)的表名
  • 2.配置dataNode(数据节点)的数据节点名
  • 3.配置数据节点连接的dataHost(节点主机)的节点主机名
  • 4.配置关联的节点主机的database(数据库)的数据库名
  • 5.在下面的dataHost中详细配置关联的服务器的ip地址,端口号以及用户名和密码

4.分片配置(server.xml)

  • 修改mycat中conf中的server.xml文件

  • 配置mycat的用户及用户的权限信息

  • 将user中的schemas后面的testdb改为数据库名

  • 在readOnly后可以配置是否只可读

5.启动服务

  • 切换到mycat的安装目录,执行指令启动mycat
1
bin/mycat start

# 启动

1
bin/mycat stop

# 停止

# mycat启动后占用端口号8066

  • 启动完成后可以查看logs目录下的启动日志,查看mycat是否启动完成

  • 登录

  • 和MySQL一样

1
mysql -h 主机ip地址 -P 8066 -u root -p

4.MyCat配置

1.schema.xml

  • schema.xml作为MyCat中最重要的配置文件之一,涵盖了MyCat的逻辑库、逻辑表、分片规则、分片节点及数据源的配置。
  • 主要包含三组标签
1.schema
1
2
3
<schema name="DB01" checkSQLschema="true" sqlMaxLimit="100">
<table name-"TB ORDER" dataNode="dnl,dn2,dn3" rule="auto-sharding-long" />
</schema>
  • schema标签用于定义 MyCat实例中的逻辑库,一个MyCat实例中,可以有多个逻辑库,可以通过 schema标签来划分不同的逻辑库。

  • MyCat中的逻辑库的概念,等同于ySQL中的database概念,需要操作某个逻辑库下的表时,也需要切换逻辑库(use xxx)。

  • 核心属性:

    • name:指定自定义的逻辑库库名
    • checksdLschema:在SOL语句操作时指定了数据库名称,执行时是否自动去除;true:自动去除,false:不自动去除
    • sqlMaxLimit:如果未指定limit进行查询,列表查询模式查询多少条记录
  • 子标签table

    • table标签定义了MyCat中逻辑库schema下的逻辑表,所有需要拆分的表都需要在table标签中定义。
1
2
<schema name="DB01" checkSQLschema="true" sqlMaxLimit="100">
<table name-"TB ORDER" dataNode="dnl, dn2,dn3" rule="auto-sharding-long" /></schema>
  • 核心属性:

    • name:定义逻辑表表名,在该逻辑库下唯一
    • dataNode:定义逻辑表所属的dataNode,该属性需要与dataNode标签中name对应;多个dataNode逗号分隔
    • rule:分片规则的名字,分片规则名字是在rule.xml中定义的
    • primaryKey:逻辑表对应真实表的主键
    • type:逻辑表的类型,目前逻辑表只有全局表和普通表,如果未配置,就是普通表;全局表,配置为global
2.dataNode
  • dataNode标签中定义了MyCat中的数据节点,也就是我们通常说的数据分片。一个dataNode标签就是一个独立的数据分片。
1
2
3
   <dataNode name="dn1" dataHost="dhost1" database="dbo1"/>
<dataNode name="dn2" dataHost="dhost2" database="dbo1">
<dataNode name="dn3" dataHost="dhost3" database-"dbo1">
  • 核心属性:
    • name:定义数据节点名称
    • dataHost:数据库实例主机名称,引用自dataHost 标签中name属性
    • database:定义分片所属数据库
3.dataHost
  • dataHost标签在MyCat逻辑库中作为底层标签存在,直接定义了具体的数据库实例、读写分离、心跳语句。
1
2
3
4
5
6
<dataHost name="dhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc">
<heartbeat>select user()</heartbeat>
<writeHost host="master" url="jdbc:mysql://192.168.200.210:3306?useSSL=false&amp;serverTimezone=Asia/Shanghai&amp:characterEncoding-utf8"
user="root" password="1234">
</writeHost>
</dataHost》
  • 核心属性:

    • name:唯一标识,供上层标签使用
    • maxCon/minCon: 最大连接数/最小连接数
    • balance:负载均衡策略,取值0,1,2,3
    • writeType:写操作分发方式(0:写操作转发到第一个writeHost,第一个挂了,切换到第二个;1:写操作随机分发到配置的writeHost)
    • dbDriver:数据库驱动,支持native、jdbc

2.rule.xml

  • rule.xml中定义所有拆分表的规则,在使用过程中可以灵活的使用分片算法,或者对同一个分片算法使用不同的参数,它让分片过程可配置化。主要包含两类标签:tableRule、Function
1
2
3
4
5
6
<tableRule name="auto-sharding-long"> 
<rule>
<columns>id</colunsJ>
<algorithm>rang-long</algorithm>
</rule>
</tableRule>

# 分片规则

1
2
3
4
<function name="rang-long"
class="io.mycat.route.function.AutoPartitionByLong">
<property name-"mapFile">autopartition-long.txt</property>
</function>

# 关联的分片算法rang-long,封装在外部文件autopartition-long.txt

3.server.xml

  • server.xml配置文件包含了MyCat的系统配意信息,主要有两个重要的标签:System、user。

  • system

    • 对应的系统配置项及其含义,参考资料。
1
2
3
4
5
<system>
<property name="nonePasswordLogin">0</property>
<property name="useHandshakeV10">1</property>
<property name="useSqlStat">l</property>
</system>
  • user
1
2
3
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">DB01</property>
  • schemas后的表示该用户可以访问的逻辑库,多个逻辑库之间逗号分隔
1
2
3
4
5
6
<privileges check="false">
<schema name="TESTDB" dml="0110">
<table name="tb01" dml="0000"></table>
<table name="tb02" dml="1111"></table>
</schema>
</privileges>

# <privileges check=“false”>表示是否开启DML权限检查,默认为false

# <schema name=“TESTDB” dml=“0110”>配置指定逻辑库的权限

# <table name=“tb01” dml=“0000”></table>配置指定逻辑表的权限,就近原则:以逻辑表为准(如果配置了逻辑表权限)

# 0000,用二进制数对应IUSD(增改查删,例如1010则为增和查)的权限

5.MyCat分片

1.垂直拆分

1.场景
  • 在业务系统中,涉及以下表结构,但是由于用户与订单每天都会产生大量的数据,单台服务器的数据存储及处理能力是有限的,可以对数据库表进行拆分,原有的数据库表如下

    • 省市区
    • 商品
      • 基础信息
      • 品牌
      • 分类
      • 编号
      • 详细信息
    • 订单
      • 详细信息
      • 支付记录
    • 用户
      • 用户名
      • 用户地址
  • 将用户和省市区,商品,订单存放在三个分片中

2.准备
  • 在三台MySQL中创建数据库shopping
3.配置
  • 在schema中配置逻辑库,逻辑表,以及指定每一个逻辑表所关联的数据节点
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
<schema name="SHOPPING" checksgLschema="true" sqlMaxLimit="100">
<table name="tb goods base" dataNode="dnl" primaryKey="id"/>
<table name="tb goods brand" dataNode-"dnl" primaryKey"id"/>
<table name="tb goods cat" dataNode="dn1" primaryKey="id"/>
<table name="th goods desc" dataNode="dnl" primaryKey="goods id"/>
<table name="tb goods item" dataNode="dnl" primaryKey="id"/>

<table name="tb order item" dataNode="dn2" primaryKey="id"/>
<table name="tb order master" dataNode="dn2" primaryKey="order id"/>
<table name="tb order pay log" dataNode="dn2" primaryKey="out trade no"/>

<table name="tb user" dataNode="dn3" primaryKey="id"/>
<table name="th user address" dataNode="dn3" primaryKey="id"/>
<table name="tb areas provinces" dataNode="dn3" primaryKey="id"/>
<table name="tb areas city" dataNode="dn3" primaryKey="id"/>
<table name="tb areas region" dataNode="dn3" primaryKey="id">
</schema>

<dataNode name="dn1" dataHost="dhostl" database="shopping" />
<dataNode name="dn2" dataHost="dhost2" database="shopping" />
<dataNode name-"dn3" dataHost="dhost3" database="shopping" />
4.测试
  • 在mycat命令行中,通过source指令导入表结构,以及对应的数据,查看数据分布情况
1
source /目录/文件名
  • 查询用户的收件人及收件人地址信息(多表联查)
1
select ua.user_id, ua.contact, p.province, c.city, r.area , ua.address from tb_user address ua ,tb_areas_city c, tb_areas_provinces p,tb_areas_region r where ua.province_id = p.provinceid and ua.city_id = c.cityid and ua.town_id = r.areaid;
  • 查询每一笔订单及订单的收件地址信息
1
SELECT order_id , payment,receiver,province,city,area FROM tb_order_master o , tb_areas_provinces p , tb_areas_city c, tb_areas_region r WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND o.receiver_region = r.areaid;

# 这里直接执行会报错,这是跨两库的多表联查

5.全局表配置
  • 对于省、市、区/县表tb_areas_provinces,tb_areas_city,tb_areas_region,是属于数据字典表,在多个业务模块中都可能会遇到,可以将其设置为全局表,利于业务操作。
1
<table name="tb_areas_provinces" dataNode="dnl,dn2,dn3" primaryKey="id"type="global"/>

# 对三张表进行全局配置,查询的时候就会把这三张表路由到订单的数据库中,这样就能实现跨两库的多表联查

# 全局表更新后关联的其他三个库中的表也会更新

2.水平拆分

1.场景
  • 在业务系统中,有一张表(日志表,业务系统每天都会产生大量的日志数据,单台服务器的数据存储及处理能力是有限的,可以对数据库表进行拆分。
2.准备
  • 在三台MySQL中创建数据库itcast
3.配置
1
2
3
4
5
6
<schema name="ITCAST" checkSQLschema="true" sqlMaxLimit="100">
<table name="tb_log" dataNode="dn4,dn5,dn6" rule="mod-long" />
</schema>
<dataNode name="dn4" dataHost="dhosti" database="itcast" />
<dataNode name="dn5" dataHost="dhost2" database="itcast" />
<dataNode name="dn6" dataHost="dhost3" database="itcast" />

# 这里rule="mod-long"将分片规则配置为取模

1
2
3
<user name="root" defaultAccount="true">
<property name="password">123456</property>
<property name="schemas">SHOPPING,ITCAST</property>

# 增加访问的逻辑库

  • 创建表结构并导入数据

3.分片规则

1.范围(auto-sharding-long)
  • 根据指定的字段及其配置的范围与数据节点的对应情况,来决定该数据属于哪一个分片。
1
<table name-"tb operate" dataNode-"dn4,dn5,dn6" rule"auto-sharding-long" />

# 在schema.xml中通过rule来指定对应的分片规则

1
2
3
4
5
6
<tableRule name="auto-sharding-long">
<rule>
<columns>id<columns>
<algorithm>rang-long</algorithm>
<rule>
<tableRule>

# rule"auto-sharding-long"分片规则引用的是rule.xml中定义的分片规则

# <columns>id<columns>定义了根据id字段进行分片

# <algorithm>rang-long</algorithm>分片对应的算法

1
2
3
<function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong">
<property name="mapFile" >autopartition-long.txt</property>
<function>

# <algorithm>rang-long</algorithm>引用rule.xml中的function

# class="io.mycat.route.function.AutoPartitionByLong"这个java类中对分片规则进行定义解析

# <property name=“mapFile” >autopartition-long.txt</property>又引用了一个外部文件

1
2
3
4
5
# range start-end ,data node index
# K=1000,M=10000.
0-500M=0
500M-1000M=1
1000M-1500M=2

# autopartition-long.txt这个外部文件中具体配置了范围对应的节点

2.取模(mod-long)
  • 根据指定的字段值与节点数量进行求模运算,根据运算结果,来决定该数据属于哪一个分片。
1
<property name="count">3</property>

# 在rule.xml中配置节点数

3.一致性hash(sharding-by-murmur)
  • 所谓一致性哈希,将字符串字段根据哈希计算,相同的哈希因子计算值总是被划分到相同的分区表中,不会因为分区节点的增加而改变原来数据的分区位置。
1
<property name="count">3</property>

# function中配置节点数

4.枚举(sharding-by-intfile)
  • 通过在配置文件中配置可能的枚举值,指定数据分布到不同数据节点上,本规则适用于按照省份、性别、状态拆分数据等业务。
1
<property name="defaultNode">2</property>

# function配置默认节点值,当插入的数据超出了指定的枚举值则默认存储到这个节点

1
<property name="mapFile">partition-hash-int.txt</property>

# function中引用外部文件,在partition-hash-int.txt这个文件中直接定义例如3=1,则字段值为3时存到第2个节点,节点是从0开始的

  • 如果有不同的字段要用同一种分片规则,则可以将原本的分片规则复制黏贴,修改规则名称,修改字段,对应的算法不更改
5.应用指定(sharding-by-substring)
  • 运行阶段由应用自主决定路由到那个分片,直接根据子字符串(必须是数字,例如截取前2个数字)计算分片号。
1
2
3
4
5
6
7
8
9
10
11
12
13
<tableRule name="sharding-by-substring"
<rule>
<columns>id</columns>
<algorithm>sharding-by-substring</algorithm>
</rule>
</tableRule>

<function name="sharding-by-substring" class="io.mycat.route.function.PartitionDirectBySubString">
<property name="startIndex">O</property>
<property name="size">2</property>
<property name="partitionCount">3</property>
<property name="defaultPartition">2</property>
</function>

# 这个分片规则不在默认的样例中,需要自行添加

1
<property name="startIndex">O</property>

# 在function中配置开始索引

1
<property name="size">2</property>

# 配置截取长度

1
<property name="partitionCount">3</property>

# 配置分片数量

1
<property name="defaultPartition">2</property>

# 配置默认分片,截取出来的子字符串不在分片数量范围内则存储到默认分片

6.固定分片hash算法(sharding-by-long-hash)
  • 该算法类似于十进制的求模运算,但是为二进制的操作,会将指定字段(值必须是数字)的二进制的前10位与1111111111进行位&运算。

  • 位&运算:将前十位的每一位数与1111111111中的相同位置的数字进行对比,相同则为1,不同则为0,获得一个新的数字。1111111111对应的十进制数是2^10-1=1023,所以这里的位&运算得出的结果位于0-1023

  • 特点:

    • 如果是求模,连续的值,分别分配到各个不同的分片;但是此算法会将连续的值可能分配到相同的分片,降低事务处理的难度。
    • 可以均匀分配到节点,也可以非均匀分配。
    • 分片字段必须为数字类型。
1
2
<property name="partitionCount">2,1</property>
<property name="partitionLength">256,512</property>

# 2,1表示共三个节点,前两个长度都是256,后一个是512(总的分片长度默认最大为1024)

# 2,1和256,512这里配置的数字个数必须对应

7.字符串hash解析(sharding-by-stringhash)
  • 截取字符串中的指定位置的子字符串,进行哈希运算,算出哈希值与1023进行位&运算,算出分片。
1
2
3
4
5
6
7
8
9
10
<tableRule name="sharding-by-stringhash"
<rule>
<columns>name</columns>
</rule>
</tableRule>
<function name="sharding-by-stringhash" class="io.mycat.route.function.PartitionByString">
<property name="partitionLength">512</property>
<property name="'partitionCount">2</property>
<property name="hashslice">0:2</property>
</function>

# 这个分片规则也是需要自行添加的

1
2
<property name="partitionLength">512</property>
<property name="'partitionCount">2</property>

# 两个节点各512长度

1
<property name="hashslice">0:2</property>

# hash运算位,格式start:end,start从0开始。0在end中出现代表str.length(),-1代表str.length()-1,大于0代表数字本身

8.按(天)日期分片(sharding-by-date)
1
2
3
4
5
<function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate">		<property name="dateformat">yyyy-MM-dd</property>
<property name="sBecinDate">2022-01-01</property>
<property name="sEndDate">2022-01-30</property>
<property name="sPartionDay">10</property>
</function>

# 需要自行配置

1
<property name="daterormat">yyyy-MM-dd</property>

# 日期格式

1
<property name="sBeginDate">2022-01-01</property>

# 起始时间

1
<property name="sEndDate">2022-01-30</property>

# 截止时间

1
<property name="sPartionDay">10</property>

# 分片周期,每十天位一个分片,到达结束时间后,后面的日期再插入,会重复开始分片插入

# dataNode的分片数量必须和这里的分片规则的数量一致,例如从同一年的01-01到12-31,每十天一个分片,则需要37个分片,没有则报错

9.按自然月分片(sharding-by-month)
  • mycat中自带的分片规则

  • 和按天分片一样需要配置日期格式和起始截止日期

  • 一个月为一个分片,到达结束时间后,后面的日期再插入,会重复开始分片插入

  • dataNode的分片数量必须和这里的分片规则的数量一致,例如从同一年的01-01到12-31,每一个月一个分片,则需要12个分片,没有则报错

6.MyCat管理及监控

1.MyCat原理

  • 客户端发送插入的SQL语句到mycat

  • mycat

    • 解析SQL
    • 分片分析
    • 路由分析,路由到相对应的节点中
    • 读写分离分析
  • 客户端发送查询的SQL语句到mycat

  • mycat

    • 解析SQL
    • 分片分析,如果字段值不在规则范围内或者没有这个字段值,则接下来的路由分析会路由到所有库中
    • 路由分析
    • 读写分离分析
  • 分片节点

    • 接收到SQL语句
    • 执行后返回结果到mycat
  • mycat

    • 结果合并
    • 聚合处理
    • 排序处理
    • 分页处理
    • 结果返回到客户端

2.MyCat管理

  • Mycat默认开通2个端口,可以在server.xml中进行修改。

    • 8066数据访问端口,即进行DML和DDL操作。

    • 9066数据库管理端口,即mycat服务管理控制功能,用于管理mycat的整个集群状态

1
mysql -h ip地址 -P 9066 -uroot -p密码
命令 含义
show @@help 查看Mycat管理工具帮助文档
show @@version 查看Mycat的版本
reload @@config 重新加载Mycat的配置文件
show @@datasouorce 查Mycat的数据源信息
show @@datanode 查看MyCat现有的分片节点信息
show @@threadpool 查看Mycat的线程池信息
show @@sql 查看执行的SQL
show @@sql.sum 查看执行的SQL统计

3.MyCat-eye

  • Mlycat-web(Mycat-eye)是对mycat-server提供监控服务,功能不局限于对mycat-server使用。他通过JDBC连接对Mycat、Mysal监控,监控远程服务器(目前仅限于linux系统)的cpu、内存、网络、磁盘。

  • Mycat-eye运行过程中需要依赖zookeeper,因此需要先安装zookeeper。

  • 在mycat-web文件夹下

1
sh start.sh

# 启动mycat-web

  • 在浏览器中输入网址:服务器ip:8082/mycat进入网站(需要关闭服务器的防火墙)

  • 在网站中进入mycat配置中的mycat服务配置

  • 管理端口:9066

  • 服务端口:8066

  • 数据库名称:这里要配置mycat-server配置文件schema.xml中schema标签配置的name。

  • 用户名:这里要配置mycat-server配置文件server.xml中user标签中name配置的值

  • 密码:这里要配置mycat-server配置文件server.xml中user标签中,property name="password"配置的密码。

4.读写分离

1.介绍

  • 读写分离,简单地说是把对数据库的读和写操作分开,以对应不同的数据库服务器。主数据库提供写操作,从数据库提供读操作,这样能有效地减轻单台数据库的压力。
  • 通过MyCat即可轻易实现上述功能,不仅可以支持MySQL,也可以支持Oracle和SQL Server。

2.一主一从

1.原理

  • MySQL的主从复制,是基于二进制日志(binlog)实现的。

2.环境准备

  • 搭建主从结构

3.一主一从读写分离

1.配置

  • 在schema.xml文件中配置主库writeHost host=“master” url=和从库readHost host=“slave” url=的ip地址

# 从库的需要自行添加

  • 还要在server.xml中的user标签中的schemas中新增逻辑库,增加权限

  • MyCat控制后台数据库的读写分离和负载均衡由schema.xml文件datahost标签的balance属性控制,将参数值修改为1或3

参数值 含义
0 不开启读写分离机制,所有读操作都发送到当前可用的writeHost上
1 全部的readHost 与备用的writeHost都参与select语句的负载均衡(主要针对于双主双从模式)
2 所有的读写操作都随机在writeHost,readHost上分发
3 所有的读请求随机分发到writeHost对应的readHost上执行,writeHost不负担读压力

2.问题

  • 主节点Master宕机之后,业务系统就只能够读,而不能写入数据了。

4.双主双从

1.介绍

  • 一个主机 Master1 用于处理所有写请求,它的从机 Slave1和另一台主机 Master2 还有它的从机库Slave2负责所有读请求。当Master1主机宕机后,Master2 主机负责写请求,Master1、Master2 互为备机。

2.环境准备

  • 共需要5台服务器,1台中间件,2台主库,2台从库
  • 全部关闭防火墙

3.搭建

1.修改主库1的配置文件/etc/my.cnf
  • server-id=1

# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1,默认为1

  • binlog-do-db=数据库名

# 指定同步的数据库,需要写三句来同步三个数据库

  • log-slave-updates

# 在作为从库时,有写入操作也要更新二进制日志文件

2.重启mysql服务
1
systemctl restart mysqld
3.修改主库2的配置文件/etc/my.cnf
  • 与主库1配置相同,只需修改id
4.两台主库创建账户并授权
1
CREATE USER '用户名'@'%' IDENTIFIED WITH mysql_native_password BY Root@密码';

# 创建用户,并设置密码,该用户可在任意主机连接该MySQL服务

1
GRANT REPLICATION SLAVE ON *.* TO '用户名'@'%';

# 为用户分配主从复制权限

1
show master status;

# 通过指令查看两台主库的二进制日志坐标

5.修改从库1配置文件/etc/my.cnf
  • server-id=2

# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1

6.重启mysql服务
7.修改从库2配置文件/etc/my.cnf

# 修改id

8.从库1配置关联的主库1
1
CHANGE MASTER TO MASTER_HOST='对应主库ip',MASTER_USER='用户名',MASTER_PASSWORD='密码',MASTER_LOG_FILE='二进制日志文件名',MASTER_LOG_POS=日志中开始的位置;

# 需要注意slave1对应的是master1,slave2对应的是master2。

9.启动从库主从复制,查看从库状态
1
start slave;
1
show slave status;
10.从库2配置关联的主库2
  • 与从库1配置关联的主库1相同
11.主库之间的相互复制
1
CHANGE MASTER TO MASTER_HOST='另一个主库ip',MASTER_USER='用户名',MASTER_PASSWORD='密码',MASTER_LOG_FILE='二进制日志文件名',MASTER_LOG_POS=日志中开始的位置;

# 在两台主库中都要执行指令

12.启动从库主从复制,查看从库状态

5.双主双从读写分离

  • 在schema.xml文件中配置主库writeHost host=“master” url=和从库readHost host=“slave” url=的ip地址

# 两个主库从库都要配置,从库分别配置在对应主库下

  • 修改balance的数值为1
1
<dataHost name="dhost7" maxCon="1000" minCon="10" balance="1" writeType="0" switchType="1 dbType="mysql" dbDriver="jdbc">

# 新增writeType和switchType

  • writeType

    • 0:写操作都转发到第1台writeHost, writeHost1挂了,会切换到writeHost2上;
    • 1:所有的写操作都随机地发送到配置的writeHost上;
  • switchType

    • -1:不自动切换
    • 1:自动切换