一、MySql中常用工具

1、mysql

该mysql不是指mysql服务,而是指mysql的客户端工具
语法:mysql [options] [database]

1.1 连接选项

  1. 参数
  2. -u, --user=name 指定用户名
  3. -p, --password[=name] 指定密码
  4. -h, --host=name 指定服务器IP或域名
  5. -P, --port=# 指定连接端口
  6. 示例
  7. mysql -h 127.0.0.1 -P 3306 -u root -p
  8. mysql -h127.0.0.1 -P3306 -uroot -p2143

1.2 执行选项

  1. -e, --execute=name 执行SQL语句并退出

此选项可以在Mysql客户端执行SQL语句,而不用连接到MySQL数据库再执行,对于一些批处理脚本,这种方式尤其方便。

  1. 示例:
  2. mysql -uroot -p2143 db01 -e "select * from tb_book";

image.png

2、mysqladmin

mysqladmin 是一个执行管理操作的客户端程序。可以用它来检查服务器的配置和当前状态、创建并删除数据库等。
可以通过: mysqladmin —help 指令查看帮助文档
image.png

  1. 示例
  2. // 创建数据库
  3. mysqladmin -uroot -p2143 create 'test01';
  4. // 删除数据库
  5. mysqladmin -uroot -p2143 drop 'test01';
  6. // 查看数据库版本号
  7. mysqladmin -uroot -p2143 version;

image.png

3、mysqlbinlog日志管理工具

由于服务器生成的二进制日志文件以二进制格式保存,所以如果想要检查这些文本的文本格式,就会使用到mysqlbinlog日志管理工具。
语法:

  1. mysqlbinlog [options] log-files1 log-files2 ...
  2. 选项:
  3. -d, --database=name : 指定数据库名称,只列出指定的数据库相关操作。
  4. -o, --offset=# : 忽略掉日志中的前n行命令。
  5. -r,--result-file=name : 将输出的文本格式日志输出到指定文件。
  6. -s, --short-form : 显示简单格式, 省略掉一些信息。
  7. --start-datatime=date1 --stop-datetime=date2 : 指定日期间隔内的所有日志。
  8. --start-position=pos1 --stop-position=pos2 : 指定位置间隔内的所有日志。

4、mysqldump

mysqldump客户端工具用来备份数据库或在不同数据库之间进行数据迁移。备份内容包含创建表,及插入表的SQL语句。

  1. 语法:
  2. mysqldump [options] db_name [tables]:指定备份的数据库及其表
  3. mysqldump [options] --database/-B db1 [db2 db3...]:导出指定的数据库
  4. mysqldump [options] --all-databases/-A:备份所有数据库及其表

4.1 连接选项

  1. 参数:
  2. -u, --user=name 指定用户名
  3. -p, --password[=name] 指定密码
  4. -h, --host=name 指定服务器IP或域名
  5. -P, --port=# 指定连接端口

4.2 输出内容选项

  1. 参数:
  2. --add-drop-database 在每个数据库创建语句前加上 Drop database 语句
  3. --add-drop-table 在每个表创建语句前加上 Drop table 语句, 默认开启;
  4. 不开启 (--skip-add-drop-table)
  5. -n, --no-create-db 不包含数据库的创建语句
  6. -t, --no-create-info 不包含数据表的创建语句
  7. -d --no-data 不包含数据
  8. -T, --tab=name 自动生成两个文件:
  9. 一个.sql文件,创建表结构的语句;
  10. 一个.txt文件,数据文件,相当于select into outfile
  1. 示例
  2. mysqldump -uroot -p2143 db01 tb_book --add-drop-database --add-drop-table > a
  3. mysqldump -uroot -p2143 -T /tmp test city

image.png
image.png

5、mysqlimport/source

mysqlimport 是客户端数据导入工具,用来导入mysqldump 加 -T 参数后导出的文本文件

  1. 语法:mysqlimport [options] db_name textfile1 [textfile2...]
  1. 示例:mysqlimport -uroot -p2143 test /tmp/city.txt

如果需要导入sql文件,可以使用mysql中的source指令:

  1. source /root/tb_book.sql

6、mysqlshow

mysqlshow客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引

  1. 语法:mysqlshow [options] [db_name [table_name [col_name]]]
  2. 参数:
  3. --count 显示数据库及表的统计信息(数据库,表 均可以不指定)
  4. -i 显示指定数据库或者指定表的状态信息

示例:

  1. #查询每个数据库的表的数量及表中记录的数量
  2. mysqlshow -uroot -p2143 --count
  3. #查询test库中每个表中的字段书,及行数
  4. mysqlshow -uroot -p2143 test --count
  5. #查询test库中book表的详细情况
  6. mysqlshow -uroot -p2143 test book --count

二、Mysql日志

在任何一种数据库中,都会有各种各样的日志,记录着数据库工作的方方面面,以帮助数据库管理员追踪数据库曾经发生过的各种事件。MySQL也不例外,在 MySQL 中,有4种不同的日志,分别是错误日志、二进制日志(BINLOG 日志)、查询日志和慢查询日志,这些日志记录着数据库在不同方面的踪迹。

1、错误日志

错误日志是 MySQL 中最重要的日志之一,它记录了当 mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,可以首先查看此日志。
该日志是默认开启的,默认存放目录为mysql的数据目录(var/lib/mysql),默认的日志文件名为hostname.err(hostname是主机名)

查看错误日志位置指令:show variables like ‘log_error%’;
image.png
image.png
查看日志内容:tail -f /var/lib/mysql/xaxh-server.err
1553993537874.png

2、二进制日志

2.1概述

二进制日志(BINLOG)记录了所有的 DDL(数据定义语言)语句和 DML(数据操纵语言)语句,但是不包括数据查询语句。此日志对于灾难时的数据恢复起着极其重要的作用,MySQL的主从复制, 就是通过该binlog实现的。
二进制日志,默认情况下是没有开启的,需要到MySQL的配置文件中开启,并配置MySQL日志的格式
配置文件位置 : /usr/my.cnf
日志存放位置 : 配置时,给定了文件名但是没有指定路径,日志默认写入Mysql的数据目录。

  1. #配置开启binlog日志,日志的文件前缀为mysqlbin -----> 生成的文件名如 : mysqlbin.000001,mysqlbin.000002
  2. log_bin=mysqlbin
  3. #配置二进制日志的格式
  4. binlog_format=STATEMENT

2.2 日志格式

STATEMENT
该日志格式在日志文件中记录的都是SQL语句(statement),每一条对数据进行修改的SQL都会记录在日志文件中,通过Mysql提供的mysqlbinlog工具,可以清晰的查看到每条语句的文本。主从复制的时候,从库(slave)会将日志解析为原文本,并在从库重新执行一次。

ROW
该日志格式在日志文件中记录的是每一行的数据变更,而不是记录SQL语句。比如,执行SQL语句: update tb_book set status=’1’,如果是STATEMENT 日志格式,在日志中会记录一行SQL文件; 如果是ROW,由于是对全表进行更新,也就是每一行记录都会发生变更,ROW 格式的日志中会记录每一行的数据变更。

MIXED
这是目前MySQL默认的日志格式,即混合了STATEMENT 和 ROW两种格式。默认情况下采用STATEMENT,但是在一些特殊情况下采用ROW来进行记录。MIXED 格式能尽量利用两种模式的优点,而避开他们的缺点。

2.3 日志读取

由于日志以二进制方式存储,不能直接读取,需要用mysqlbinlog工具来查看,语法如下:

  1. mysqlbinlog log-file

1)查看STATEMENT格式日志
  1. 执行插入语句:insert into tb_book values(null,'Lucene','2088-05-01','0');

查看日志文件 :
image.png
mysqlbin.index:该文件是日志索引文件,记录日志的文件名
image.png
mysqlbing.000001:具体的日志文件

  1. 查看日志内容:mysqlbinlog mysqlbing.000001

image.png

2)查看ROW格式日志
  1. 配置:
  2. #配置开启binlog日志, 日志的文件前缀为 mysqlbin -----> 生成的文件名如 : mysqlbin.000001,mysqlbin.000002
  3. log_bin=mysqlbin
  4. #配置二进制日志的格式
  5. binlog_format=ROW

image.png

  1. 插入数据:insert into tb_book values(null,'SpringCloud实战','2088-05-05','0');

如果日志格式是ROW,直接查看数据,是查看不懂的;可以在mysqlbinlog后面加上参数 -vv

  1. mysqlbinlog -vv mysqlbin.000002

image.png

2.4 日志删除

对于比较繁忙的系统,由于每天生成日志量大,这些日志如果长时间不清楚,将会占用大量的磁盘空间。下面我们将会讲解几种删除日志的常见方法:

方式一:删除全部binlog日志

通过 Reset Master 指令删除全部binlog日志,删除之后,日志编号,将从 xxxx.000001重新开始
执行之前:先查询下日志文件:
image.png
执行删除日志指令:Reset Master
执行之后,查看日志文件:
image.png

方式二:删除指定编号之前的所有日志

执行指令 purge master logs to ‘mysqlbin.**‘ ,该命令将删除 ** 编号之前的所有日志。

方式三:删除指定日期之前产生的所有日志

执行指令 purge master logs before ‘yyyy-mm-dd hh24:mi:ss’ ,该命令将删除日志为 “yyyy-mm-dd hh24:mi:ss” 之前产生的所有日志

方式四:自动删除指定天数之前的日志

设置参数 —expire_logs_days=# ,此参数的含义是设置日志的过期天数, 过了指定的天数后日志将会被自动删除,这样将有利于减少DBA管理日志的工作量。
配置如下:
image.png

3、查询日志

查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。
默认情况下,查询日志是未开启的。如果需要开启查询日志,可以设置以下配置:

  1. # 该选项用来开启查询日志,可选值: 0 或者 1 ; 0 代表关闭, 1 代表开启
  2. general_log=1
  3. # 设置日志的文件名,如果没有指定,默认的文件名为 host_name.log
  4. general_log_file=file_name

在MySQL的配置文件 /usr/my.cnf 中配置如下内容 :
image.png
配置完毕之后,在数据库执行以下操作 :

  1. select * from tb_book;
  2. select * from tb_book where id = 1;
  3. update tb_book set name = 'lucene入门指南' where id = 5;
  4. select * from tb_book where id < 8;

执行完毕之后,再次来查询日志文件:
image.png

4、慢查询日志

慢查询日志记录了所有执行时间超过参数 long_query_time 设置值并且扫描记录数不小于 min_examined_row_limit 的所有的SQL语句的日志。long_query_time 默认为 10 秒,最小为 0,精度可以到微秒。

4.1 文件位置和格式

慢查询日志默认是关闭的。可以通过两个参数来控制慢查询日志:

  1. # 该参数用来控制慢查询日志是否开启,可取值:1 和 0 ,1 代表开启,0 代表关闭
  2. slow_query_log=1
  3. # 该参数用来指定慢查询日志的文件名
  4. slow_query_log_file=slow_query.log
  5. # 该选项用来配置查询的时间限制,超过这个时间将认为值慢查询,将需要进行日志记录,默认10s
  6. long_query_time=2

image.png

4.2 日志的读取

和错误日志、查询日志一样,慢查询日志记录的格式也是纯文本,可以被直接读取。
1)查询long_query_time 的值
image.png
2)执行查询操作

  1. select id, title,price,num ,status from tb_item where id = 1;

1554130448709.png
由于该语句执行时间很短,为0s , 所以不会记录在慢查询日志中。

  1. select * from tb_item where title like '%阿尔卡特 (OT-927) 炭黑 联通3G手机 双卡双待165454%' ;

1554130532577.png
该SQL语句,执行时长为 26.77s ,超过10s,所以会记录在慢查询日志文件中。
image.png
3) 查看慢查询日志文件
直接通过cat 指令查询该日志文件:
1554130669360.png
如果慢查询日志内容很多,直接查看文件,比较麻烦,这个时候可以借助于mysql自带的mysqldumpslow 工具,来对慢查询日志进行分类汇总。
image.png

三、Mysql复制

1、复制概述

复制是指将主数据库的DDL 和 DML 操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步。
MySQL支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制。

2、复制原理

MySQL 的主从复制原理如下。
1.jpg
从上层来看,复制分成三步:

  • Master 主库在事务提交时,会把数据变更作为时间 Events 记录在二进制日志文件 Binlog 中
  • 主库推送二进制日志文件 Binlog 中的日志事件到从库的中继日志 Relay Log
  • slave读取中继日志中的事件,将改变反映它自己的数据

    3、复制优势

    MySQL 复制的有点主要包含以下三个方面:

  • 主库出现问题,可以快速切换到从库提供服务

  • 可以在从库上执行查询操作主库中更新,实现读写分离,降低主库的访问压力
  • 可以在从库中执行备份,以避免备份期间影响主库的服务。

    4、搭建步骤

    4.1 master

    1)在 master 的配置文件(/usr/my.cnf)中,配置如下内容: ```sql

    mysql 服务ID,保证整个集群环境中唯一

    server-id=1

mysql binlog 日志的存储路径和文件名

log-bin=/var/lib/mysql/mysqlbin

错误日志,默认已经开启

log-err

mysql的安装目录

basedir

mysql的临时目录

tmpdir

mysql的数据存放目录

datadir

是否只读,1 代表只读, 0 代表读写

read-only=0

忽略的数据, 指不需要同步的数据库

binlog-ignore-db=mysql

指定同步的数据库

binlog-do-db=db01

  1. 2 执行完毕之后,需要重启Mysql
  2. ```sql
  3. service mysql restart;

3) 创建同步数据的账户,并且进行授权操作:

  1. grant replication slave on *.* to 'itcast'@'192.168.192.131' identified by 'itcast';
  2. flush privileges;

4) 查看master状态:

  1. show master status;

1554477759735.png
字段含义:

  1. File: 从哪个日志文件开始推送日志文件
  2. Position 从哪个位置开始推送日志
  3. Binlog_Ignore_DB: 指定不需要同步的数据库

4.2 slave

1)在 slave 端配置文件中,配置如下内容:

  1. # mysql服务端ID,唯一
  2. server-id=2
  3. # 指定binlog日志
  4. log-bin=/var/lib/mysql/mysqlbin

2)执行完毕之后,需要重启Mysql:

  1. service mysql restart

3)执行如下指令 :
指定当前从库对应的主库的IP地址,用户名,密码,从哪个日志文件开始的那个位置开始同步推送日志

  1. change master to master_host= '192.168.192.130', master_user='itcast',
  2. master_password='itcast', master_log_file='mysqlbin.000001', master_log_pos=413;

4)开启同步操作

  1. start slave;
  2. show slave status;

image.png
5)停止同步操作

  1. stop slave;

4.3 验证同步操作

1)在主库中创建数据库,创建表,并插入数据:

  1. create database db01;
  2. user db01;
  3. create table user(
  4. id int(11) not null auto_increment,
  5. name varchar(50) not null,
  6. sex varchar(1),
  7. primary key (id)
  8. )engine=innodb default charset=utf8;
  9. insert into user(id,name,sex) values(null,'Tom','1');
  10. insert into user(id,name,sex) values(null,'Trigger','0');
  11. insert into user(id,name,sex) values(null,'Dawn','1');

2)在从库中查询数据,进行验证:
在从库中,可以查看到刚才创建的数据库:
image.png
在该数据库中,查询user表中的数据:
image.png

四、综合案例

1、需求分析

在业务系统中,需要记录当前业务系统的访问日志,该访问日志包含:操作人,操作时间,访问类,访问方法,请求参数,请求结果,请求结果类型,请求时长 等信息。记录详细的系统访问日志,主要便于对系统中的用户请求进行追踪,并且在系统 的管理后台可以查看到用户的访问记录。
记录系统中的日志信息,可以通过Spring 框架的AOP来实现。具体的请求处理流程,如下:
1555075760661.png

2、搭建案例环境

2.1 数据库表

  1. CREATE DATABASE mysql_demo DEFAULT CHARACTER SET utf8mb4
  2. CREATE TABLE `brand` (
  3. `id` bigint(20) NOT NULL AUTO_INCREMENT,
  4. `name` varchar(255) DEFAULT NULL COMMENT '品牌名称',
  5. `first_char` varchar(1) DEFAULT NULL COMMENT '品牌首字母',
  6. PRIMARY KEY (`id`)
  7. ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
  8. CREATE TABLE `item` (
  9. `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '商品id',
  10. `title` varchar(100) NOT NULL COMMENT '商品标题',
  11. `price` double(10,2) NOT NULL COMMENT '商品价格,单位为:元',
  12. `num` int(10) NOT NULL COMMENT '库存数量',
  13. `categoryid` bigint(10) NOT NULL COMMENT '所属类目,叶子类目',
  14. `status` varchar(1) DEFAULT NULL COMMENT '商品状态,1-正常,2-下架,3-删除',
  15. `sellerid` varchar(50) DEFAULT NULL COMMENT '商家ID',
  16. `createtime` datetime DEFAULT NULL COMMENT '创建时间',
  17. `updatetime` datetime DEFAULT NULL COMMENT '更新时间',
  18. PRIMARY KEY (`id`)
  19. ) ENGINE=InnoDB DEFAULT CHARSET=utf8 COMMENT='商品表';
  20. CREATE TABLE `user` (
  21. `id` int(11) NOT NULL AUTO_INCREMENT,
  22. `username` varchar(45) NOT NULL,
  23. `password` varchar(96) NOT NULL,
  24. `name` varchar(45) NOT NULL,
  25. `birthday` datetime DEFAULT NULL,
  26. `sex` char(1) DEFAULT NULL,
  27. `email` varchar(45) DEFAULT NULL,
  28. `phone` varchar(45) DEFAULT NULL,
  29. `qq` varchar(32) DEFAULT NULL,
  30. PRIMARY KEY (`id`)
  31. ) ENGINE=InnoDB DEFAULT CHARSET=utf8;
  32. CREATE TABLE `operation_log` (
  33. `id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT 'ID',
  34. `operate_class` varchar(200) DEFAULT NULL COMMENT '操作类',
  35. `operate_method` varchar(200) DEFAULT NULL COMMENT '操作方法',
  36. `return_class` varchar(200) DEFAULT NULL COMMENT '返回值类型',
  37. `operate_user` varchar(20) DEFAULT NULL COMMENT '操作用户',
  38. `operate_time` varchar(20) DEFAULT NULL COMMENT '操作时间',
  39. `param_and_value` varchar(500) DEFAULT NULL COMMENT '请求参数名及参数值',
  40. `cost_time` bigint(20) DEFAULT NULL COMMENT '执行方法耗时, 单位 ms',
  41. `return_value` varchar(200) DEFAULT NULL COMMENT '返回值',
  42. PRIMARY KEY (`id`)
  43. ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4;

2.2 pom.xml

  1. <properties>
  2. <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  3. <maven.compiler.source>1.7</maven.compiler.source>
  4. <maven.compiler.target>1.7</maven.compiler.target>
  5. <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  6. <maven.compiler.source>1.8</maven.compiler.source>
  7. <maven.compiler.target>1.8</maven.compiler.target>
  8. <spring.version>5.0.2.RELEASE</spring.version>
  9. <slf4j.version>1.6.6</slf4j.version>
  10. <log4j.version>1.2.12</log4j.version>
  11. <mybatis.version>3.4.5</mybatis.version>
  12. </properties>
  13. <dependencies> <!-- spring -->
  14. <dependency>
  15. <groupId>org.aspectj</groupId>
  16. <artifactId>aspectjweaver</artifactId>
  17. <version>1.6.8</version>
  18. </dependency>
  19. <dependency>
  20. <groupId>org.projectlombok</groupId>
  21. <artifactId>lombok</artifactId>
  22. <version>1.16.16</version>
  23. </dependency>
  24. <dependency>
  25. <groupId>org.springframework</groupId>
  26. <artifactId>spring-context</artifactId>
  27. <version>${spring.version}</version>
  28. </dependency>
  29. <dependency>
  30. <groupId>org.springframework</groupId>
  31. <artifactId>spring-context-support</artifactId>
  32. <version>${spring.version}</version>
  33. </dependency>
  34. <dependency>
  35. <groupId>org.springframework</groupId>
  36. <artifactId>spring-orm</artifactId>
  37. <version>${spring.version}</version>
  38. </dependency>
  39. <dependency>
  40. <groupId>org.springframework</groupId>
  41. <artifactId>spring-test</artifactId>
  42. <version>${spring.version}</version>
  43. </dependency>
  44. <dependency>
  45. <groupId>org.springframework</groupId>
  46. <artifactId>spring-webmvc</artifactId>
  47. <version>${spring.version}</version>
  48. </dependency>
  49. <dependency>
  50. <groupId>org.springframework</groupId>
  51. <artifactId>spring-tx</artifactId>
  52. <version>${spring.version}</version>
  53. </dependency>
  54. <dependency>
  55. <groupId>junit</groupId>
  56. <artifactId>junit</artifactId>
  57. <version>4.12</version>
  58. <scope>test</scope>
  59. </dependency>
  60. <dependency>
  61. <groupId>javax.servlet</groupId>
  62. <artifactId>javax.servlet-api</artifactId>
  63. <version>3.1.0</version>
  64. <scope>provided</scope>
  65. </dependency>
  66. <dependency>
  67. <groupId>javax.servlet.jsp</groupId>
  68. <artifactId>jsp-api</artifactId>
  69. <version>2.0</version>
  70. <scope>provided</scope>
  71. </dependency>
  72. <dependency>
  73. <groupId>log4j</groupId>
  74. <artifactId>log4j</artifactId>
  75. <version>${log4j.version}</version>
  76. </dependency>
  77. <dependency>
  78. <groupId>org.mybatis</groupId>
  79. <artifactId>mybatis</artifactId>
  80. <version>${mybatis.version}</version>
  81. </dependency>
  82. <dependency>
  83. <groupId>org.mybatis</groupId>
  84. <artifactId>mybatis-spring</artifactId>
  85. <version>1.3.0</version>
  86. </dependency>
  87. <dependency>
  88. <groupId>c3p0</groupId>
  89. <artifactId>c3p0</artifactId>
  90. <version>0.9.1.2</version>
  91. </dependency>
  92. <dependency>
  93. <groupId>mysql</groupId>
  94. <artifactId>mysql-connector-java</artifactId>
  95. <version>5.1.5</version>
  96. </dependency>
  97. <dependency>
  98. <groupId>com.fasterxml.jackson.core</groupId>
  99. <artifactId>jackson-core</artifactId>
  100. <version>2.9.0</version>
  101. </dependency>
  102. <dependency>
  103. <groupId>com.fasterxml.jackson.core</groupId>
  104. <artifactId>jackson-databind</artifactId>
  105. <version>2.9.0</version>
  106. </dependency>
  107. <dependency>
  108. <groupId>com.fasterxml.jackson.core</groupId>
  109. <artifactId>jackson-annotations</artifactId>
  110. <version>2.9.0</version>
  111. </dependency>
  112. </dependencies>
  113. <build>
  114. <plugins>
  115. <plugin>
  116. <groupId>org.apache.tomcat.maven</groupId>
  117. <artifactId>tomcat7-maven-plugin</artifactId>
  118. <version>2.2</version>
  119. <configuration>
  120. <port>8080</port>
  121. <path>/</path>
  122. <uriEncoding>utf-8</uriEncoding>
  123. </configuration>
  124. </plugin>
  125. </plugins>
  126. </build>

2.3 web.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <web-app xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://java.sun.com/xml/ns/javaee"
  3. xsi:schemaLocation="http://java.sun.com/xml/ns/javaee http://java.sun.com/xml/ns/javaee/web-app_2_5.xsd"
  4. version="2.5">
  5. <!-- 解决post乱码 -->
  6. <filter>
  7. <filter-name>CharacterEncodingFilter</filter-name>
  8. <filter-class>org.springframework.web.filter.CharacterEncodingFilter</filter-class>
  9. <init-param>
  10. <param-name>encoding</param-name>
  11. <param-value>utf-8</param-value>
  12. </init-param>
  13. <init-param>
  14. <param-name>forceEncoding</param-name>
  15. <param-value>true</param-value>
  16. </init-param>
  17. </filter>
  18. <filter-mapping>
  19. <filter-name>CharacterEncodingFilter</filter-name>
  20. <url-pattern>/*</url-pattern>
  21. </filter-mapping>
  22. <context-param>
  23. <param-name>contextConfigLocation</param-name>
  24. <param-value>classpath:applicationContext.xml</param-value>
  25. </context-param>
  26. <listener>
  27. <listener-class>org.springframework.web.context.ContextLoaderListener</listener-class>
  28. </listener>
  29. <servlet>
  30. <servlet-name>springmvc</servlet-name>
  31. <servlet-class>org.springframework.web.servlet.DispatcherServlet</servlet-class>
  32. <!-- 指定加载的配置文件 ,通过参数contextConfigLocation加载-->
  33. <init-param>
  34. <param-name>contextConfigLocation</param-name>
  35. <param-value>classpath:springmvc.xml</param-value>
  36. </init-param>
  37. </servlet>
  38. <servlet-mapping>
  39. <servlet-name>springmvc</servlet-name>
  40. <url-pattern>*.do</url-pattern>
  41. </servlet-mapping>
  42. <welcome-file-list>
  43. <welcome-file>log-datalist.html</welcome-file>
  44. </welcome-file-list>
  45. </web-app>

2.4 db.properties

  1. jdbc.driver=com.mysql.jdbc.Driver
  2. jdbc.url=jdbc:mysql://192.168.142.128:3306/mysql_demo
  3. jdbc.username=root
  4. jdbc.password=itcast

2.5 applicationContext.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <beans xmlns="http://www.springframework.org/schema/beans"
  3. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  4. xmlns:aop="http://www.springframework.org/schema/aop"
  5. xmlns:tx="http://www.springframework.org/schema/tx"
  6. xmlns:context="http://www.springframework.org/schema/context"
  7. xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd
  8. http://www.springframework.org/schema/tx http://www.springframework.org/schema/tx/spring-tx.xsd
  9. http://www.springframework.org/schema/aop http://www.springframework.org/schema/aop/spring-aop.xsd
  10. http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd">
  11. <!-- 加载配置文件 -->
  12. <context:property-placeholder location="classpath:db.properties"/>
  13. <!-- 配置 spring 创建容器时要扫描的包 -->
  14. <context:component-scan base-package="cn.itcast">
  15. <context:exclude-filter type="annotation" expression="org.springframework.stereotype.Controller">
  16. </context:exclude-filter>
  17. </context:component-scan>
  18. <!-- 配置 MyBatis 的 Session 工厂 -->
  19. <bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">
  20. <property name="dataSource" ref="dataSource"/>
  21. <property name="typeAliasesPackage" value="cn.itcast.pojo"/>
  22. </bean>
  23. <!-- 配置数据源 -->
  24. <bean id="dataSource" class="com.mchange.v2.c3p0.ComboPooledDataSource">
  25. <property name="driverClass" value="${jdbc.driver}"></property>
  26. <property name="jdbcUrl" value="${jdbc.url}"></property>
  27. <property name="user" value="${jdbc.username}"></property>
  28. <property name="password" value="${jdbc.password}"></property>
  29. </bean>
  30. <!-- 配置 Mapper 扫描器 -->
  31. <bean class="org.mybatis.spring.mapper.MapperScannerConfigurer">
  32. <property name="basePackage" value="cn.itcast.mapper"/>
  33. </bean>
  34. <!-- 配置事务管理器 -->
  35. <bean id="transactionManager" class="org.springframework.jdbc.datasource.DataSourceTransactionManager">
  36. <property name="dataSource" ref="dataSource"/>
  37. </bean>
  38. <!-- 配置事务的注解驱动 -->
  39. <tx:annotation-driven transaction-manager="transactionManager"></tx:annotation-driven>
  40. </beans>

2.6 springmvc.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <beans xmlns="http://www.springframework.org/schema/beans"
  3. xmlns:mvc="http://www.springframework.org/schema/mvc"
  4. xmlns:context="http://www.springframework.org/schema/context"
  5. xmlns:aop="http://www.springframework.org/schema/aop"
  6. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  7. xsi:schemaLocation="http://www.springframework.org/schema/beans
  8. http://www.springframework.org/schema/beans/spring-beans.xsd
  9. http://www.springframework.org/schema/mvc
  10. http://www.springframework.org/schema/mvc/spring-mvc.xsd
  11. http://www.springframework.org/schema/aop
  12. http://www.springframework.org/schema/aop/spring-aop.xsd
  13. http://www.springframework.org/schema/context
  14. http://www.springframework.org/schema/context/spring-context.xsd">
  15. <context:component-scan base-package="cn.itcast.controller"></context:component-scan>
  16. <mvc:annotation-driven></mvc:annotation-driven>
  17. <aop:aspectj-autoproxy />
  18. </beans>

2.7 导入基础工程

1555076434270.png

3、通过AOP记录操作日志

3.1 自定义注解

通过自定义注解,来标示方法需不需要进行记录日志,如果该方法在访问时需要记录日志,则在该方法上标示该注解既可。

  1. @Inherited
  2. @Documented
  3. @Target(ElementType.METHOD)
  4. @Retention(RetentionPolicy.RUNTIME)
  5. public @interface OperateLog {
  6. }

3.2 定义通知类

  1. @Component
  2. @Aspect
  3. public class OperateAdvice {
  4. private static Logger log = Logger.getLogger(OperateAdvice.class);
  5. @Autowired
  6. private OperationLogService operationLogService;
  7. @Around("execution(* cn.itcast.controller.*.*(..)) && @annotation(operateLog)")
  8. public Object insertLogAround(ProceedingJoinPoint pjp , OperateLog operateLog) throws Throwable{
  9. System.out.println(" ************************ 记录日志 [start] ****************************** ");
  10. OperationLog op = new OperationLog();
  11. DateFormat sdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
  12. op.setOperateTime(sdf.format(new Date()));
  13. op.setOperateUser(DataUtils.getRandStr(8));
  14. op.setOperateClass(pjp.getTarget().getClass().getName());
  15. op.setOperateMethod(pjp.getSignature().getName());
  16. //获取方法调用时传递的参数
  17. Object[] args = pjp.getArgs();
  18. op.setParamAndValue(Arrays.toString(args));
  19. long start_time = System.currentTimeMillis();
  20. //放行
  21. Object object = pjp.proceed();
  22. long end_time = System.currentTimeMillis();
  23. op.setCostTime(end_time - start_time);
  24. if(object != null){
  25. op.setReturnClass(object.getClass().getName());
  26. op.setReturnValue(object.toString());
  27. }else{
  28. op.setReturnClass("java.lang.Object");
  29. op.setParamAndValue("void");
  30. }
  31. log.error(JsonUtils.obj2JsonString(op));
  32. operationLogService.insert(op);
  33. System.out.println(" ************************** 记录日志 [end] *************************** ");
  34. return object;
  35. }
  36. }

3.3 方法上加注解

在需要记录日志的方法上加上注解@OperateLog。

  1. @OperateLog
  2. @RequestMapping("/insert")
  3. public Result insert(@RequestBody Brand brand){
  4. try {
  5. brandService.insert(brand);
  6. return new Result(true,"操作成功");
  7. } catch (Exception e) {
  8. e.printStackTrace();
  9. return new Result(false,"操作失败");
  10. }
  11. }

4、日志查询后端代码实现

4.1 Mapper接口

  1. public interface OperationLogMapper {
  2. public void insert(OperationLog operationLog);
  3. public List<OperationLog> selectListByCondition(Map dataMap);
  4. public Long countByCondition(Map dataMap);
  5. }

4.2 Mapper.xml 映射配置文件

  1. <?xml version="1.0" encoding="UTF-8" ?>
  2. <!DOCTYPE mapper PUBLIC "-//mybatis.org//DTD Mapper 3.0//EN" "http://mybatis.org/dtd/mybatis-3-mapper.dtd" >
  3. <mapper namespace="cn.itcast.mapper.OperationLogMapper" >
  4. <insert id="insert" parameterType="operationLog">
  5. INSERT INTO operation_log(id,return_value,return_class,operate_user,operate_time,param_and_value,
  6. operate_class,operate_method,cost_time)
  7. VALUES(NULL,#{returnValue},#{returnClass},#{operateUser},#{operateTime},#{paramAndValue},
  8. #{operateClass},#{operateMethod},#{costTime})
  9. </insert>
  10. <select id="selectListByCondition" parameterType="map" resultType="operationLog">
  11. select
  12. id ,
  13. operate_class as operateClass ,
  14. operate_method as operateMethod,
  15. return_class as returnClass,
  16. operate_user as operateUser,
  17. operate_time as operateTime,
  18. param_and_value as paramAndValue,
  19. cost_time as costTime,
  20. return_value as returnValue
  21. from operation_log
  22. <include refid="oplog_where"/>
  23. limit #{start},#{size}
  24. </select>
  25. <select id="countByCondition" resultType="long" parameterType="map">
  26. select count(*) from operation_log
  27. <include refid="oplog_where"/>
  28. </select>
  29. <sql id="oplog_where">
  30. <where>
  31. <if test="operateClass != null and operateClass != '' ">
  32. and operate_class = #{operateClass}
  33. </if>
  34. <if test="operateMethod != null and operateMethod != '' ">
  35. and operate_method = #{operateMethod}
  36. </if>
  37. <if test="returnClass != null and returnClass != '' ">
  38. and return_class = #{returnClass}
  39. </if>
  40. <if test="costTime != null">
  41. and cost_time = #{costTime}
  42. </if>
  43. </where>
  44. </sql>
  45. </mapper>

4.3 Service

  1. @Service
  2. @Transactional
  3. public class OperationLogService {
  4. //private static Logger logger = Logger.getLogger(OperationLogService.class);
  5. @Autowired
  6. private OperationLogMapper operationLogMapper;
  7. //插入数据
  8. public void insert(OperationLog operationLog){
  9. operationLogMapper.insert(operationLog);
  10. }
  11. //根据条件查询
  12. public PageResult selectListByCondition(Map dataMap, Integer pageNum , Integer pageSize){
  13. if(paramMap ==null){
  14. paramMap = new HashMap();
  15. }
  16. paramMap.put("start" , (pageNum-1)*rows);
  17. paramMap.put("rows",rows);
  18. Object costTime = paramMap.get("costTime");
  19. if(costTime != null){
  20. if("".equals(costTime.toString())){
  21. paramMap.put("costTime",null);
  22. }else{
  23. paramMap.put("costTime",new Long(paramMap.get("costTime").toString()));
  24. }
  25. }
  26. System.out.println(dataMap);
  27. long countStart = System.currentTimeMillis();
  28. Long count = operationLogMapper.countByCondition(dataMap);
  29. long countEnd = System.currentTimeMillis();
  30. System.out.println("Count Cost Time : " + (countEnd-countStart)+" ms");
  31. List<OperationLog> list = operationLogMapper.selectListByCondition(dataMap);
  32. long queryEnd = System.currentTimeMillis();
  33. System.out.println("Query Cost Time : " + (queryEnd-countEnd)+" ms");
  34. return new PageResult(count,list);
  35. }
  36. }

4.4 Controller

  1. @RestController
  2. @RequestMapping("/operationLog")
  3. public class OperationLogController {
  4. @Autowired
  5. private OperationLogService operationLogService;
  6. @RequestMapping("/findList")
  7. public PageResult findList(@RequestBody Map dataMap, Integer pageNum , Integer pageSize){
  8. PageResult page = operationLogService.selectListByCondition(dataMap, pageNum, pageSize);
  9. return page;
  10. }
  11. }

5、日志查询前端代码实现

前端代码使用 BootStrap + AdminLTE 进行布局, 使用Vuejs 进行视图层展示。

5.1 js

  1. <script>
  2. var vm = new Vue({
  3. el: '#app',
  4. data: {
  5. dataList:[],
  6. searchEntity:{
  7. operateClass:'',
  8. operateMethod:'',
  9. returnClass:'',
  10. costTime:''
  11. },
  12. page: 1, //显示的是哪一页
  13. pageSize: 10, //每一页显示的数据条数
  14. total: 150, //记录总数
  15. maxPage:8 //最大页数
  16. },
  17. methods: {
  18. pageHandler: function (page) {
  19. this.page = page;
  20. this.search();
  21. },
  22. search: function () {
  23. var _this = this;
  24. this.showLoading();
  25. axios.post('/operationLog/findList.do?pageNum=' + _this.page + "&pageSize=" + _this.pageSize, _this.searchEntity).then(function (response) {
  26. if (response) {
  27. _this.dataList = response.data.dataList;
  28. _this.total = response.data.total;
  29. _this.hideLoading();
  30. }
  31. })
  32. },
  33. showLoading: function () {
  34. $('#loadingModal').modal({backdrop: 'static', keyboard: false});
  35. },
  36. hideLoading: function () {
  37. $('#loadingModal').modal('hide');
  38. },
  39. },
  40. created:function(){
  41. this.pageHandler(1);
  42. }
  43. });
  44. </script>

5.2 列表数据展示

  1. <tr v-for="item in dataList">
  2. <td><input name="ids" type="checkbox"></td>
  3. <td>{{item.id}}</td>
  4. <td>{{item.operateClass}}</td>
  5. <td>{{item.operateMethod}}</td>
  6. <td>{{item.returnClass}}</td>
  7. <td>{{item.returnValue}}</td>
  8. <td>{{item.operateUser}}</td>
  9. <td>{{item.operateTime}}</td>
  10. <td>{{item.costTime}}</td>
  11. <td class="text-center">
  12. <button type="button" class="btn bg-olive btn-xs">详情</button>
  13. <button type="button" class="btn bg-olive btn-xs">删除</button>
  14. </td>
  15. </tr>

5.3 分页插件

  1. <div class="wrap" id="wrap">
  2. <zpagenav v-bind:page="page" v-bind:page-size="pageSize" v-bind:total="total"
  3. v-bind:max-page="maxPage" v-on:pagehandler="pageHandler">
  4. </zpagenav>
  5. </div>

6、联调测试

可以通过postman来访问业务系统,再查看数据库中的日志信息,验证能不能将用户的访问日志记录下来。
1555077276426.png

7、分析性能问题

系统中用户访问日志的数据量,随着时间的推移,这张表的数据量会越来越大,因此我们需要根据业务需求,来对日志查询模块的性能进行优化。
1) 分页查询优化
由于在进行日志查询时,是进行分页查询,那也就意味着,在查看时,至少需要查询两次:
A. 查询符合条件的总记录数。—> count 操作
B. 查询符合条件的列表数据。—> 分页查询 limit 操作
通常来说,count() 都需要扫描大量的行(意味着需要访问大量的数据)才能获得精确的结果,因此是很难对该SQL进行优化操作的。如果需要对count进行优化,可以采用另外一种思路,可以增加汇总表,或者redis缓存来专门记录该表对应的记录数,这样的话,就可以很轻松的实现汇总数据的查询,而且效率很高,但是这种统计并不能保证百分之百的准确 。对于数据库的操作,“快速、精确、实现简单”,三者永远只能满足其二,必须舍掉其中一个。
2) 条件查询优化
针对于条件查询,需要对查询条件,及排序字段建立索引。
3) 读写分离
通过主从复制集群,来完成读写分离,使写操作走主节点, 而读操作,走从节点。
4) MySQL服务器优化
5) 应用优化

8、性能优化 - 分页

8.1 优化count

创建一张表用来记录日志表的总数据量:

  1. create table log_counter(
  2. logcount bigint not null
  3. )engine = innodb default CHARSET = utf8;

在每次插入数据之后,更新该表:

  1. <update id="updateLogCounter" >
  2. update log_counter set logcount = logcount + 1
  3. </update>

在进行分页查询时, 获取总记录数,从该表中查询既可。

  1. <select id="countLogFromCounter" resultType="long">
  2. select logcount from log_counter limit 1
  3. </select>

8.2 优化 limit

在进行分页时,一般通过创建覆盖索引,能够比较好的提高性能。一个非常常见,而又非常头疼的分页场景就是 “limit 1000000,10” ,此时MySQL需要搜索出前1000010 条记录后,仅仅需要返回第 1000001 到 1000010 条记录,前1000000 记录会被抛弃,查询代价非常大。
1555081714638.png
当点击比较靠后的页码时,就会出现这个问题,查询效率非常慢。
优化SQL:

  1. select * from operation_log limit 3000000, 10;

将上述SQL优化为 :

  1. select * from operation_log t , (select id from operation_log order by id limit 3000000,10) b where t.id = b.id ;
  1. <select id="selectListByCondition" parameterType="map" resultType="operationLog">
  2. select
  3. id ,
  4. operate_class as operateClass ,
  5. operate_method as operateMethod,
  6. return_class as returnClass,
  7. operate_user as operateUser,
  8. operate_time as operateTime,
  9. param_and_value as paramAndValue,
  10. cost_time as costTime,
  11. return_value as returnValue
  12. from operation_log t,
  13. (select id from operation_log
  14. <where>
  15. <include refid="oplog_where"/>
  16. </where>
  17. order by id limit #{start},#{rows}) b where t.id = b.id
  18. </select>

9、性能优化 - 索引

1555152703824.png
当根据操作人进行查询时,查询的效率很低,耗时比较长。原因就是因为在创建数据库表结构时,并没有针对于 操作人字段建立索引。

  1. CREATE INDEX idx_user_method_return_cost ON operation_log(operate_user,operate_method,return_class,cost_time);

同上,为了查询效率高,我们也需要对 操作方法、返回值类型、操作耗时等字段进行创建索引,以提高查询效率。

  1. CREATE INDEX idx_optlog_method_return_cost ON operation_log(operate_method,return_class,cost_time);
  2. CREATE INDEX idx_optlog_return_cost ON operation_log(return_class,cost_time);
  3. CREATE INDEX idx_optlog_cost ON operation_log(cost_time);

10 性能优化 - 排序

在查询数据时,如果业务需求中需要我们对结果内容进行了排序处理 , 这个时候,我们还需要对排序的字段建立适当的索引, 来提高排序的效率 。

11、性能优化 - 读写分离

11.1 概述

在Mysql主从复制的基础上,可以使用读写分离来降低单台Mysql节点的压力,从而来提高访问效率,读写分离的架构如下:
1555235426739.png
对于读写分离的实现,可以通过Spring AOP 来进行动态的切换数据源,进行操作 :

11.2 实现方式

db.properties

  1. jdbc.write.driver=com.mysql.jdbc.Driver
  2. jdbc.write.url=jdbc:mysql://192.168.142.128:3306/mysql_demo
  3. jdbc.write.username=root
  4. jdbc.write.password=itcast
  5. jdbc.read.driver=com.mysql.jdbc.Driver
  6. jdbc.read.url=jdbc:mysql://192.168.142.129:3306/mysql_demo
  7. jdbc.read.username=root
  8. jdbc.read.password=itcast

applicationContext-datasource.xml

  1. <?xml version="1.0" encoding="UTF-8"?>
  2. <beans xmlns="http://www.springframework.org/schema/beans"
  3. xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
  4. xmlns:aop="http://www.springframework.org/schema/aop"
  5. xmlns:tx="http://www.springframework.org/schema/tx"
  6. xmlns:context="http://www.springframework.org/schema/context"
  7. xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd
  8. http://www.springframework.org/schema/tx http://www.springframework.org/schema/tx/spring-tx.xsd
  9. http://www.springframework.org/schema/aop http://www.springframework.org/schema/aop/spring-aop.xsd
  10. http://www.springframework.org/schema/context http://www.springframework.org/schema/context/spring-context.xsd">
  11. <!-- 配置数据源 - Read -->
  12. <bean id="readDataSource" class="com.mchange.v2.c3p0.ComboPooledDataSource" destroy-method="close" lazy-init="true">
  13. <property name="driverClass" value="${jdbc.read.driver}"></property>
  14. <property name="jdbcUrl" value="${jdbc.read.url}"></property>
  15. <property name="user" value="${jdbc.read.username}"></property>
  16. <property name="password" value="${jdbc.read.password}"></property>
  17. </bean>
  18. <!-- 配置数据源 - Write -->
  19. <bean id="writeDataSource" class="com.mchange.v2.c3p0.ComboPooledDataSource" destroy-method="close" lazy-init="true">
  20. <property name="driverClass" value="${jdbc.write.driver}"></property>
  21. <property name="jdbcUrl" value="${jdbc.write.url}"></property>
  22. <property name="user" value="${jdbc.write.username}"></property>
  23. <property name="password" value="${jdbc.write.password}"></property>
  24. </bean>
  25. <!-- 配置动态分配的读写 数据源 -->
  26. <bean id="dataSource" class="cn.itcast.aop.datasource.ChooseDataSource" lazy-init="true">
  27. <property name="targetDataSources">
  28. <map key-type="java.lang.String" value-type="javax.sql.DataSource">
  29. <entry key="write" value-ref="writeDataSource"/>
  30. <entry key="read" value-ref="readDataSource"/>
  31. </map>
  32. </property>
  33. <property name="defaultTargetDataSource" ref="writeDataSource"/>
  34. <property name="methodType">
  35. <map key-type="java.lang.String">
  36. <entry key="read" value=",get,select,count,list,query,find"/>
  37. <entry key="write" value=",add,create,update,delete,remove,insert"/>
  38. </map>
  39. </property>
  40. </bean>
  41. </beans>

ChooseDataSource

  1. public class ChooseDataSource extends AbstractRoutingDataSource {
  2. public static Map<String, List<String>> METHOD_TYPE_MAP = new HashMap<String, List<String>>();
  3. /**
  4. * 实现父类中的抽象方法,获取数据源名称
  5. * @return
  6. */
  7. protected Object determineCurrentLookupKey() {
  8. return DataSourceHandler.getDataSource();
  9. }
  10. // 设置方法名前缀对应的数据源
  11. public void setMethodType(Map<String, String> map) {
  12. for (String key : map.keySet()) {
  13. List<String> v = new ArrayList<String>();
  14. String[] types = map.get(key).split(",");
  15. for (String type : types) {
  16. if (!StringUtils.isEmpty(type)) {
  17. v.add(type);
  18. }
  19. }
  20. METHOD_TYPE_MAP.put(key, v);
  21. }
  22. System.out.println("METHOD_TYPE_MAP : "+METHOD_TYPE_MAP);
  23. }
  24. }

DataSourceHandler

  1. public class DataSourceHandler {
  2. // 数据源名称
  3. public static final ThreadLocal<String> holder = new ThreadLocal<String>();
  4. /**
  5. * 在项目启动的时候将配置的读、写数据源加到holder中
  6. */
  7. public static void putDataSource(String datasource) {
  8. holder.set(datasource);
  9. }
  10. /**
  11. * 从holer中获取数据源字符串
  12. */
  13. public static String getDataSource() {
  14. return holder.get();
  15. }
  16. }

DataSourceAspect

  1. @Aspect
  2. @Component
  3. @Order(-9999)
  4. @EnableAspectJAutoProxy(proxyTargetClass = true)
  5. public class DataSourceAspect {
  6. protected Logger logger = LoggerFactory.getLogger(this.getClass());
  7. /**
  8. * 配置前置通知,使用在方法aspect()上注册的切入点
  9. */
  10. @Before("execution(* cn.itcast.service.*.*(..))")
  11. @Order(-9999)
  12. public void before(JoinPoint point) {
  13. String className = point.getTarget().getClass().getName();
  14. String method = point.getSignature().getName();
  15. logger.info(className + "." + method + "(" + Arrays.asList(point.getArgs())+ ")");
  16. try {
  17. for (String key : ChooseDataSource.METHOD_TYPE_MAP.keySet()) {
  18. for (String type : ChooseDataSource.METHOD_TYPE_MAP.get(key)) {
  19. if (method.startsWith(type)) {
  20. System.out.println("key : " + key);
  21. DataSourceHandler.putDataSource(key);
  22. break;
  23. }
  24. }
  25. }
  26. } catch (Exception e) {
  27. e.printStackTrace();
  28. }
  29. }
  30. }

通过@Order(-9999) 注解来控制事务管理器,与该通知类的加载顺序,需要让通知类,先加载,来判定使用哪个数据源

11.3 验证

在主库和从库中,执行如下SQL语句,来查看是否读的时候, 从从库中读取 ; 写入操作的时候,是否写入到主库。
image.png

11.4 原理

aop-datasource.png

12、性能优化 - 应用优化

12.1 缓存

可以在业务系统中使用redis来做缓存,缓存一些基础性的数据,来降低关系型数据库的压力,提高访问效率。

12.2 全文检索

如果业务系统中的数据量比较大(达到千万级别),这个时候,如果再对数据库进行查询,特别是进行分页查询,速度将变得很慢(因为在分页时首先需要count求合计数),为了提高访问效率,这个时候,可以考虑加入Solr 或者 ElasticSearch全文检索服务,来提高访问效率。

13.3 非关系数据库

也可以考虑将非核心(重要)数据,存在 MongoDB 中,这样可以提高插入以及查询的效率。