MySQL运维
MySQL运维
1.日志
1.错误日志
-
错误日志是 MySQL 中最重要的日志之一,它记录了当mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。
-
当数据库出现任何故障导致无法正常使用时,建议首先查看此日志。
-
该日志是默认开启的,默认存放目录/var/log/,默认的日志文件名为mysqld.log。查看日志位置:
1 | show variables like '%log_error%'; |
2.二进制日志
1.介绍
-
二进制日志(binlog)记录了所有ddl(数据定义语言)语句和dml(数据操纵语言)语句,但不包括数据查询(select,show)语句
-
作用:
-
灾难时的数据恢复,数据库崩溃后再次执行二进制日志中的内容就可以恢复
-
MySQL的主从复制。在MySQL8版本中,默认二进制日志是开启的,涉及参数:
-
1 | show variables like '%log_bin%'; |
-
可以查询到:
- log_bin:开启或关闭
- log_bin_basename:日志文件位置,文件由binlog和编号组成
- log_bin_index:索引文件位置
2.日志格式
| 日志格式 | 含义 |
|---|---|
| statement | 基于SQL语句的日志记录,记录的是SQL语句,对数据进行修改的SQL都会记录在日志文件中 |
| row | 基于行的日志记录,记录的是每一行的数据变更(默认) |
| mixed | 混合了statement和row两种格式,默认采用statement,在某些特殊情况下会自动切换为row进行记录 |
1 | show variables like '%binlog_format%'; |
# 查询日志格式
# 需要在文件中修改日志格式
# 修改后会在新的日志文件中记录
3.日志查看
-
由于日志是以二进制方式存储的,不能直接读取,需要通过二进制日志查询工具mysqlbinlog来查看
-
语法:
1 | mysqlbinlog 选项 日志文件名 |
-
选项:
- -d,指定数据库名称,只列出指定的数据库相关操作
- -o,忽略掉日志中的前n行命令
- -v,将行事件(数据变更)重构为SQL语句
- -w,将行事件(数据变更)重构为SQL语句,并输出注释信息
4.日志删除
- 对于比较繁忙的业务系统,每天生成的binlog数据巨大,如果长时间不清除,将会占用大量磁盘空间
| 指令 | 含义 |
|---|---|
| reset master; | 删除全部binlog日志,删除之后,日志编号,将从binlog.000001重新开始 |
| purge master logs to ‘binlog.xxxxxx’; | 删除xxxxxx编号之前的所有日志(此编号不会被删除) |
| purge master logs before ‘yyyy-mm-dd hh24:mi:ss’; | 删除日志为’yyyy-mm-dd hh24:mi:ss’之前产生的所有日志 |
- 也可以在mysql的配置文件中配置二进制日志的过期时间,设置后,二进制日志过期会自动删除
1 | show variables like '%binlog_expire_logs_seconds%'; |
# 默认30天
3.查询日志
-
查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。默认情况下,查询日志是未开启的
-
涉及参数:general_log
-
修改MySQL的配置文件/etc/my.cnf文件,添加内容:
-
general_log=1
# 开启
- general_log_file=目录/文件名
# 指定文件名,默认文件名为主机名.log
4.慢查询日志
-
慢查询日志记录了所有执行时间超过参数long_query_time 设置值并且扫描记录数不小于min_examined_rowlimit的所有的SQL语句的日志,默认未开启。long_query_time 默认为10秒,最小为0,精度可以到微秒。
-
默认情况下,不会记录管理语句,也不会记录不使用索引进行查找的查询。可以在MySQL的配置文件/etc/my.cnf文件中修改log_slow_admin_statements和更改此行为log_queries_not_using_indexes
-
log_slow_admin_statements=1
# 记录执行较慢的管理语句
- log_queries_not_using_indexes=1
# 记录执行较慢的未使用索引的语句
2.主从复制
1.概述
-
主从复制是指将主数据库的DDL 和 DML操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库(slave)和主库(master)的数据保持同步。
-
MySQL支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制。
-
作用:
- 1.主库出现问题,可以快速切换到从库提供服务。
- 2.实现读写分离,降低主库的访问压力。
- 3.可以在从库中执行备份,以避免备份期间影响主库服务。
2.原理
- 主要分为三步:
- 1.Master 主库在事务提交时,会把数据变更记录在二进制日志文件 binlog中。
- 2.从库的IOthread读取主库的二进制日志文件 binlog,写入到从库的中继日志Relay Log。
- 3.slave从库的SQLthread读取中继日志,再将改变反映它自己的数据。
3.搭建
1.服务器准备
-
主库和从库
-
关闭服务器的防火墙
1 | systemctl stop firewalld |
# 关闭防火墙
1 | systemctl disable firewalld |
# 关闭防火墙的开机自启动
- 或者
- 开放指定的端口号
2.主库配置
1.修改配置文件/etc/my.cnf
- server-id=1
# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1,默认为1
- read-only=0
# 是否只读,1代表只读,0代表读写
- binlog-ignore-db=数据库名
# 忽略数据库,指不需要同步的数据库
- binlog-do-db=数据库名
# 指定同步的数据库
2.重启MySQL服务器
1 | systemctl restart mysqld |
# 没有报错则配置成功
3.登录mysql,创建远程连接的账号,并授予主从复制权限
1 | create user '用户名'@'%'identified with mysql_native_password by '密码'; |
# 创建用户,并设置密码,因为主机名设置为%所以该用户可在任意主机连接该MySQL服务
1 | grant replication slave on *.* to '用户名'@'%'; |
# 为用户分配主从复制权限
4.通过指令,查看二进制日志坐标
1 | show master status; |
-
字段含义说明:
- file:从哪个日志文件开始推送日志文件
- position:从哪个位置开始推送日志
- binlog_ignore_db:指定不需要同步的数据库
3.从库配置
1.修改配置文件/etc/my.cnf
- server-id=2
# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1,和主库不一样即可
- read-only=1
# 是否只读,1代表只读,0代表读写
- super-read-only=1
# 可以将超级管理员也设置为只读,否则也能读写
2.重启MySQL服务器
1 | systemctl restart mysqld |
# 没有报错则配置成功
3.登录mysql,设置主库配置
1 | change replication source to source_host='原主机ip地址',source_user='用户名',source_password='密码',source_log_file='对应二进制日志文件',source_log_pos=从日志中的哪个位置开始同步; |
# 从日志中的哪个位置开始同步,可以查看二进制日志坐标中的position
- 老版本
1 | change master to master_host='原主机ip地址',master_user='用户名',master_password='密码',master_log_file='对应二进制日志文件名',master_log_pos=从日志中的哪个位置开始同步; |
4.开启同步操作
1 | start replica; |
- 老版本(新版本也兼容)
1 | start slave; |
5.查看主从同步状态
1 | show replica status; |
- 老版本
1 | show slave status; |
# 状态中Replica_IO_Running 和Replica_SQL_Running 为Yes 说明主从复制正常
3.分库分表
1.介绍
1.问题分析
-
随着互联网及移动互联网的发展,应用系统的数据量也是成指数式增长,若采用单数据库进行数据存储,存在以下性能瓶颈:
- 1.IO瓶颈:热点数据太多,数据库缓存不足,产生大量磁盘IO,效率较低。请求数据太多,带宽不够,网络IO瓶颈。
- 2.CPU瓶颈:排序、分组、连接查询、聚合统计等SQL会耗费大量的CPU资源,请求数太多,CPU出现瓶颈。
-
分库分表的中心思想都是将数据分散存储,使得单一数据库/表的数据量变小来缓解单一数据库的性能问题,从而达到提升数据库性能的目的。
2.拆分策略
-
垂直拆分
- 垂直分库:以表为依据,根据业务将不同表拆分到不同库中。
- 每个库的表结构都不一样
- 每个库的数据也不一样
- 所有库的并集是全量数据
- 垂直分表:以字段为依据,根据字段属性将不同字段拆分到不同表中。
- 每个表的结构都不一样
- 每个表的数据也不一样,一般通过一列(主键/外键)关联
- 所有表的并集是全量数据
- 垂直分库:以表为依据,根据业务将不同表拆分到不同库中。
-
水平拆分
- 水平分库:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。
- 每个库的表结构都一样
- 每个库的数据都不一样
- 所有库的并集是全量数据
- 水平分表:以字段为依据,按照一定策略,将一个表的数据拆分到多个库中。
- 每个表的表结构都一样
- 每个表的数据都不一样
- 所有表的并集是全量数据
- 水平分库:以字段为依据,按照一定策略,将一个库的数据拆分到多个库中。
3.实现技术
- shardingJDBC:基于AOP原理,在应用程序中对本地执行的SQL进行拦截,解析、改写、路由处理。需要自行编码配置实现,只支持java语言,性能较高。
- MyCat:数据库分库分表中间件,不用调整代码即可实现分库分表,支持多种语言,性能不及前者。
2.MyCat概述
1.介绍
-
Mycat是开源的、活跃的、基于Java语言编写的MySQL数据库中间件。mycat伪装了mysql的协议,所以可以像使用mysql一样来使用mycat,对于开发人员来说根本感觉不到mycat的存在。
-
优势:
- 性能可靠稳定
- 强大的技术团队
- 体系完善
- 社区活跃
-
MyCat中间件服务器需要安装jdk和mycat
-
mycat解压后有主要四个目录:
- bin:存放可执行文件,用于启动停止mycat
- conf:存放mycat的配置文件
- lib:存放mycat的项目依赖包(jar)
- logs:存放mycat的日志文件
2.概念介绍
- 逻辑结构:
- 逻辑库
- 逻辑表
- 分片节点
- 逻辑表
- 物理结构:
- 节点主机(与分片节点相连)
3.MyCat入门
1.需求
- 由于 tb_order 表中数据量很大,磁盘IO及容量都到达了瓶颈,现在需要对tb_order表进行数据分片,分为三个数据节点,每一个节点主机位于不同的服务器上。
2.环境准备
- 需要在三台服务器上都建立一个空的数据库
- 将防火墙关闭或者直接开放指定端口
3.分片配置(schema.xml)
- 修改mycat中conf中的schema.xml文件
# 可以用notepad++的插件NppFTP,show NppFTP Windows,便于编辑
- 1.配置table(逻辑表)的表名
- 2.配置dataNode(数据节点)的数据节点名
- 3.配置数据节点连接的dataHost(节点主机)的节点主机名
- 4.配置关联的节点主机的database(数据库)的数据库名
- 5.在下面的dataHost中详细配置关联的服务器的ip地址,端口号以及用户名和密码
4.分片配置(server.xml)
-
修改mycat中conf中的server.xml文件
-
配置mycat的用户及用户的权限信息
-
将user中的schemas后面的testdb改为数据库名
-
在readOnly后可以配置是否只可读
5.启动服务
- 切换到mycat的安装目录,执行指令启动mycat
1 | bin/mycat start |
# 启动
1 | bin/mycat stop |
# 停止
# mycat启动后占用端口号8066
-
启动完成后可以查看logs目录下的启动日志,查看mycat是否启动完成
-
登录
-
和MySQL一样
1 | mysql -h 主机ip地址 -P 8066 -u root -p |
4.MyCat配置
1.schema.xml
- schema.xml作为MyCat中最重要的配置文件之一,涵盖了MyCat的逻辑库、逻辑表、分片规则、分片节点及数据源的配置。
- 主要包含三组标签
1.schema
1 | <schema name="DB01" checkSQLschema="true" sqlMaxLimit="100"> |
-
schema标签用于定义 MyCat实例中的逻辑库,一个MyCat实例中,可以有多个逻辑库,可以通过 schema标签来划分不同的逻辑库。
-
MyCat中的逻辑库的概念,等同于ySQL中的database概念,需要操作某个逻辑库下的表时,也需要切换逻辑库(use xxx)。
-
核心属性:
- name:指定自定义的逻辑库库名
- checksdLschema:在SOL语句操作时指定了数据库名称,执行时是否自动去除;true:自动去除,false:不自动去除
- sqlMaxLimit:如果未指定limit进行查询,列表查询模式查询多少条记录
-
子标签table
- table标签定义了MyCat中逻辑库schema下的逻辑表,所有需要拆分的表都需要在table标签中定义。
1 | <schema name="DB01" checkSQLschema="true" sqlMaxLimit="100"> |
-
核心属性:
- name:定义逻辑表表名,在该逻辑库下唯一
- dataNode:定义逻辑表所属的dataNode,该属性需要与dataNode标签中name对应;多个dataNode逗号分隔
- rule:分片规则的名字,分片规则名字是在rule.xml中定义的
- primaryKey:逻辑表对应真实表的主键
- type:逻辑表的类型,目前逻辑表只有全局表和普通表,如果未配置,就是普通表;全局表,配置为global
2.dataNode
- dataNode标签中定义了MyCat中的数据节点,也就是我们通常说的数据分片。一个dataNode标签就是一个独立的数据分片。
1 | <dataNode name="dn1" dataHost="dhost1" database="dbo1"/> |
- 核心属性:
- name:定义数据节点名称
- dataHost:数据库实例主机名称,引用自dataHost 标签中name属性
- database:定义分片所属数据库
3.dataHost
- dataHost标签在MyCat逻辑库中作为底层标签存在,直接定义了具体的数据库实例、读写分离、心跳语句。
1 | <dataHost name="dhost1" maxCon="1000" minCon="10" balance="0" writeType="0" dbType="mysql" dbDriver="jdbc"> |
-
核心属性:
- name:唯一标识,供上层标签使用
- maxCon/minCon: 最大连接数/最小连接数
- balance:负载均衡策略,取值0,1,2,3
- writeType:写操作分发方式(0:写操作转发到第一个writeHost,第一个挂了,切换到第二个;1:写操作随机分发到配置的writeHost)
- dbDriver:数据库驱动,支持native、jdbc
2.rule.xml
- rule.xml中定义所有拆分表的规则,在使用过程中可以灵活的使用分片算法,或者对同一个分片算法使用不同的参数,它让分片过程可配置化。主要包含两类标签:tableRule、Function
1 | <tableRule name="auto-sharding-long"> |
# 分片规则
1 | <function name="rang-long" |
# 关联的分片算法rang-long,封装在外部文件autopartition-long.txt
3.server.xml
-
server.xml配置文件包含了MyCat的系统配意信息,主要有两个重要的标签:System、user。
-
system
- 对应的系统配置项及其含义,参考资料。
1 | <system> |
- user
1 | <user name="root" defaultAccount="true"> |
- schemas后的表示该用户可以访问的逻辑库,多个逻辑库之间逗号分隔
1 | <privileges check="false"> |
# <privileges check=“false”>表示是否开启DML权限检查,默认为false
# <schema name=“TESTDB” dml=“0110”>配置指定逻辑库的权限
# <table name=“tb01” dml=“0000”></table>配置指定逻辑表的权限,就近原则:以逻辑表为准(如果配置了逻辑表权限)
# 0000,用二进制数对应IUSD(增改查删,例如1010则为增和查)的权限
5.MyCat分片
1.垂直拆分
1.场景
-
在业务系统中,涉及以下表结构,但是由于用户与订单每天都会产生大量的数据,单台服务器的数据存储及处理能力是有限的,可以对数据库表进行拆分,原有的数据库表如下
- 省市区
- 商品
- 基础信息
- 品牌
- 分类
- 编号
- 详细信息
- 订单
- 详细信息
- 支付记录
- 用户
- 用户名
- 用户地址
-
将用户和省市区,商品,订单存放在三个分片中
2.准备
- 在三台MySQL中创建数据库shopping
3.配置
- 在schema中配置逻辑库,逻辑表,以及指定每一个逻辑表所关联的数据节点
1 | <schema name="SHOPPING" checksgLschema="true" sqlMaxLimit="100"> |
4.测试
- 在mycat命令行中,通过source指令导入表结构,以及对应的数据,查看数据分布情况
1 | source /目录/文件名 |
- 查询用户的收件人及收件人地址信息(多表联查)
1 | select ua.user_id, ua.contact, p.province, c.city, r.area , ua.address from tb_user address ua ,tb_areas_city c, tb_areas_provinces p,tb_areas_region r where ua.province_id = p.provinceid and ua.city_id = c.cityid and ua.town_id = r.areaid; |
- 查询每一笔订单及订单的收件地址信息
1 | SELECT order_id , payment,receiver,province,city,area FROM tb_order_master o , tb_areas_provinces p , tb_areas_city c, tb_areas_region r WHERE o.receiver_province = p.provinceid AND o.receiver_city = c.cityid AND o.receiver_region = r.areaid; |
# 这里直接执行会报错,这是跨两库的多表联查
5.全局表配置
- 对于省、市、区/县表tb_areas_provinces,tb_areas_city,tb_areas_region,是属于数据字典表,在多个业务模块中都可能会遇到,可以将其设置为全局表,利于业务操作。
1 | <table name="tb_areas_provinces" dataNode="dnl,dn2,dn3" primaryKey="id"type="global"/> |
# 对三张表进行全局配置,查询的时候就会把这三张表路由到订单的数据库中,这样就能实现跨两库的多表联查
# 全局表更新后关联的其他三个库中的表也会更新
2.水平拆分
1.场景
- 在业务系统中,有一张表(日志表,业务系统每天都会产生大量的日志数据,单台服务器的数据存储及处理能力是有限的,可以对数据库表进行拆分。
2.准备
- 在三台MySQL中创建数据库itcast
3.配置
1 | <schema name="ITCAST" checkSQLschema="true" sqlMaxLimit="100"> |
# 这里rule="mod-long"将分片规则配置为取模
1 | <user name="root" defaultAccount="true"> |
# 增加访问的逻辑库
- 创建表结构并导入数据
3.分片规则
1.范围(auto-sharding-long)
- 根据指定的字段及其配置的范围与数据节点的对应情况,来决定该数据属于哪一个分片。
1 | <table name-"tb operate" dataNode-"dn4,dn5,dn6" rule"auto-sharding-long" /> |
# 在schema.xml中通过rule来指定对应的分片规则
1 | <tableRule name="auto-sharding-long"> |
# rule"auto-sharding-long"分片规则引用的是rule.xml中定义的分片规则
# <columns>id<columns>定义了根据id字段进行分片
# <algorithm>rang-long</algorithm>分片对应的算法
1 | <function name="rang-long" class="io.mycat.route.function.AutoPartitionByLong"> |
# <algorithm>rang-long</algorithm>引用rule.xml中的function
# class="io.mycat.route.function.AutoPartitionByLong"这个java类中对分片规则进行定义解析
# <property name=“mapFile” >autopartition-long.txt</property>又引用了一个外部文件
1 | # range start-end ,data node index |
# autopartition-long.txt这个外部文件中具体配置了范围对应的节点
2.取模(mod-long)
- 根据指定的字段值与节点数量进行求模运算,根据运算结果,来决定该数据属于哪一个分片。
1 | <property name="count">3</property> |
# 在rule.xml中配置节点数
3.一致性hash(sharding-by-murmur)
- 所谓一致性哈希,将字符串字段根据哈希计算,相同的哈希因子计算值总是被划分到相同的分区表中,不会因为分区节点的增加而改变原来数据的分区位置。
1 | <property name="count">3</property> |
# function中配置节点数
4.枚举(sharding-by-intfile)
- 通过在配置文件中配置可能的枚举值,指定数据分布到不同数据节点上,本规则适用于按照省份、性别、状态拆分数据等业务。
1 | <property name="defaultNode">2</property> |
# function配置默认节点值,当插入的数据超出了指定的枚举值则默认存储到这个节点
1 | <property name="mapFile">partition-hash-int.txt</property> |
# function中引用外部文件,在partition-hash-int.txt这个文件中直接定义例如3=1,则字段值为3时存到第2个节点,节点是从0开始的
- 如果有不同的字段要用同一种分片规则,则可以将原本的分片规则复制黏贴,修改规则名称,修改字段,对应的算法不更改
5.应用指定(sharding-by-substring)
- 运行阶段由应用自主决定路由到那个分片,直接根据子字符串(必须是数字,例如截取前2个数字)计算分片号。
1 | <tableRule name="sharding-by-substring" |
# 这个分片规则不在默认的样例中,需要自行添加
1 | <property name="startIndex">O</property> |
# 在function中配置开始索引
1 | <property name="size">2</property> |
# 配置截取长度
1 | <property name="partitionCount">3</property> |
# 配置分片数量
1 | <property name="defaultPartition">2</property> |
# 配置默认分片,截取出来的子字符串不在分片数量范围内则存储到默认分片
6.固定分片hash算法(sharding-by-long-hash)
-
该算法类似于十进制的求模运算,但是为二进制的操作,会将指定字段(值必须是数字)的二进制的前10位与1111111111进行位&运算。
-
位&运算:将前十位的每一位数与1111111111中的相同位置的数字进行对比,相同则为1,不同则为0,获得一个新的数字。1111111111对应的十进制数是2^10-1=1023,所以这里的位&运算得出的结果位于0-1023
-
特点:
- 如果是求模,连续的值,分别分配到各个不同的分片;但是此算法会将连续的值可能分配到相同的分片,降低事务处理的难度。
- 可以均匀分配到节点,也可以非均匀分配。
- 分片字段必须为数字类型。
1 | <property name="partitionCount">2,1</property> |
# 2,1表示共三个节点,前两个长度都是256,后一个是512(总的分片长度默认最大为1024)
# 2,1和256,512这里配置的数字个数必须对应
7.字符串hash解析(sharding-by-stringhash)
- 截取字符串中的指定位置的子字符串,进行哈希运算,算出哈希值与1023进行位&运算,算出分片。
1 | <tableRule name="sharding-by-stringhash" |
# 这个分片规则也是需要自行添加的
1 | <property name="partitionLength">512</property> |
# 两个节点各512长度
1 | <property name="hashslice">0:2</property> |
# hash运算位,格式start:end,start从0开始。0在end中出现代表str.length(),-1代表str.length()-1,大于0代表数字本身
8.按(天)日期分片(sharding-by-date)
1 | <function name="sharding-by-date" class="io.mycat.route.function.PartitionByDate"> <property name="dateformat">yyyy-MM-dd</property> |
# 需要自行配置
1 | <property name="daterormat">yyyy-MM-dd</property> |
# 日期格式
1 | <property name="sBeginDate">2022-01-01</property> |
# 起始时间
1 | <property name="sEndDate">2022-01-30</property> |
# 截止时间
1 | <property name="sPartionDay">10</property> |
# 分片周期,每十天位一个分片,到达结束时间后,后面的日期再插入,会重复开始分片插入
# dataNode的分片数量必须和这里的分片规则的数量一致,例如从同一年的01-01到12-31,每十天一个分片,则需要37个分片,没有则报错
9.按自然月分片(sharding-by-month)
-
mycat中自带的分片规则
-
和按天分片一样需要配置日期格式和起始截止日期
-
一个月为一个分片,到达结束时间后,后面的日期再插入,会重复开始分片插入
-
dataNode的分片数量必须和这里的分片规则的数量一致,例如从同一年的01-01到12-31,每一个月一个分片,则需要12个分片,没有则报错
6.MyCat管理及监控
1.MyCat原理
-
客户端发送插入的SQL语句到mycat
-
mycat
- 解析SQL
- 分片分析
- 路由分析,路由到相对应的节点中
- 读写分离分析
- …
-
客户端发送查询的SQL语句到mycat
-
mycat
- 解析SQL
- 分片分析,如果字段值不在规则范围内或者没有这个字段值,则接下来的路由分析会路由到所有库中
- 路由分析
- 读写分离分析
- …
-
分片节点
- 接收到SQL语句
- 执行后返回结果到mycat
-
mycat
- 结果合并
- 聚合处理
- 排序处理
- 分页处理
- …
- 结果返回到客户端
2.MyCat管理
-
Mycat默认开通2个端口,可以在server.xml中进行修改。
-
8066数据访问端口,即进行DML和DDL操作。
-
9066数据库管理端口,即mycat服务管理控制功能,用于管理mycat的整个集群状态
-
1 | mysql -h ip地址 -P 9066 -uroot -p密码 |
| 命令 | 含义 |
|---|---|
| show @@help | 查看Mycat管理工具帮助文档 |
| show @@version | 查看Mycat的版本 |
| reload @@config | 重新加载Mycat的配置文件 |
| show @@datasouorce | 查Mycat的数据源信息 |
| show @@datanode | 查看MyCat现有的分片节点信息 |
| show @@threadpool | 查看Mycat的线程池信息 |
| show @@sql | 查看执行的SQL |
| show @@sql.sum | 查看执行的SQL统计 |
3.MyCat-eye
-
Mlycat-web(Mycat-eye)是对mycat-server提供监控服务,功能不局限于对mycat-server使用。他通过JDBC连接对Mycat、Mysal监控,监控远程服务器(目前仅限于linux系统)的cpu、内存、网络、磁盘。
-
Mycat-eye运行过程中需要依赖zookeeper,因此需要先安装zookeeper。
-
在mycat-web文件夹下
1 | sh start.sh |
# 启动mycat-web
-
在浏览器中输入网址:服务器ip:8082/mycat进入网站(需要关闭服务器的防火墙)
-
在网站中进入mycat配置中的mycat服务配置
-
管理端口:9066
-
服务端口:8066
-
数据库名称:这里要配置mycat-server配置文件schema.xml中schema标签配置的name。
-
用户名:这里要配置mycat-server配置文件server.xml中user标签中name配置的值
-
密码:这里要配置mycat-server配置文件server.xml中user标签中,property name="password"配置的密码。
4.读写分离
1.介绍
- 读写分离,简单地说是把对数据库的读和写操作分开,以对应不同的数据库服务器。主数据库提供写操作,从数据库提供读操作,这样能有效地减轻单台数据库的压力。
- 通过MyCat即可轻易实现上述功能,不仅可以支持MySQL,也可以支持Oracle和SQL Server。
2.一主一从
1.原理
- MySQL的主从复制,是基于二进制日志(binlog)实现的。
2.环境准备
- 搭建主从结构
3.一主一从读写分离
1.配置
- 在schema.xml文件中配置主库writeHost host=“master” url=和从库readHost host=“slave” url=的ip地址
# 从库的需要自行添加
-
还要在server.xml中的user标签中的schemas中新增逻辑库,增加权限
-
MyCat控制后台数据库的读写分离和负载均衡由schema.xml文件datahost标签的balance属性控制,将参数值修改为1或3
| 参数值 | 含义 |
|---|---|
| 0 | 不开启读写分离机制,所有读操作都发送到当前可用的writeHost上 |
| 1 | 全部的readHost 与备用的writeHost都参与select语句的负载均衡(主要针对于双主双从模式) |
| 2 | 所有的读写操作都随机在writeHost,readHost上分发 |
| 3 | 所有的读请求随机分发到writeHost对应的readHost上执行,writeHost不负担读压力 |
2.问题
- 主节点Master宕机之后,业务系统就只能够读,而不能写入数据了。
4.双主双从
1.介绍
- 一个主机 Master1 用于处理所有写请求,它的从机 Slave1和另一台主机 Master2 还有它的从机库Slave2负责所有读请求。当Master1主机宕机后,Master2 主机负责写请求,Master1、Master2 互为备机。
2.环境准备
- 共需要5台服务器,1台中间件,2台主库,2台从库
- 全部关闭防火墙
3.搭建
1.修改主库1的配置文件/etc/my.cnf
- server-id=1
# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1,默认为1
- binlog-do-db=数据库名
# 指定同步的数据库,需要写三句来同步三个数据库
- log-slave-updates
# 在作为从库时,有写入操作也要更新二进制日志文件
2.重启mysql服务
1 | systemctl restart mysqld |
3.修改主库2的配置文件/etc/my.cnf
- 与主库1配置相同,只需修改id
4.两台主库创建账户并授权
1 | CREATE USER '用户名'@'%' IDENTIFIED WITH mysql_native_password BY Root@密码'; |
# 创建用户,并设置密码,该用户可在任意主机连接该MySQL服务
1 | GRANT REPLICATION SLAVE ON *.* TO '用户名'@'%'; |
# 为用户分配主从复制权限
1 | show master status; |
# 通过指令查看两台主库的二进制日志坐标
5.修改从库1配置文件/etc/my.cnf
- server-id=2
# mysql服务id,保证整个集群环境中唯一,取值范围:1~2^32-1
6.重启mysql服务
7.修改从库2配置文件/etc/my.cnf
# 修改id
8.从库1配置关联的主库1
1 | CHANGE MASTER TO MASTER_HOST='对应主库ip',MASTER_USER='用户名',MASTER_PASSWORD='密码',MASTER_LOG_FILE='二进制日志文件名',MASTER_LOG_POS=日志中开始的位置; |
# 需要注意slave1对应的是master1,slave2对应的是master2。
9.启动从库主从复制,查看从库状态
1 | start slave; |
1 | show slave status; |
10.从库2配置关联的主库2
- 与从库1配置关联的主库1相同
11.主库之间的相互复制
1 | CHANGE MASTER TO MASTER_HOST='另一个主库ip',MASTER_USER='用户名',MASTER_PASSWORD='密码',MASTER_LOG_FILE='二进制日志文件名',MASTER_LOG_POS=日志中开始的位置; |
# 在两台主库中都要执行指令
12.启动从库主从复制,查看从库状态
5.双主双从读写分离
- 在schema.xml文件中配置主库writeHost host=“master” url=和从库readHost host=“slave” url=的ip地址
# 两个主库从库都要配置,从库分别配置在对应主库下
- 修改balance的数值为1
1 | <dataHost name="dhost7" maxCon="1000" minCon="10" balance="1" writeType="0" switchType="1 dbType="mysql" dbDriver="jdbc"> |
# 新增writeType和switchType
-
writeType
- 0:写操作都转发到第1台writeHost, writeHost1挂了,会切换到writeHost2上;
- 1:所有的写操作都随机地发送到配置的writeHost上;
-
switchType
- -1:不自动切换
- 1:自动切换