SpringBoot Mybatis Druid PageHelper

Druid介绍和使用

Druid是一个数据库连接池。Druid可以说是目前最好的数据库连接池!因其优秀的功能、性能和扩展性方面,深受开发人员的青睐。
Druid已经在阿里巴巴部署了超过600个应用,经过一年多生产环境大规模部署的严苛考验。Druid是阿里巴巴开发的号称为监控而生的数据库连接池!
同时Druid不仅仅是一个数据库连接池,Druid 核心主要包括三部分:

  • 基于Filter-Chain模式的插件体系。
  • DruidDataSource 高效可管理的数据库连接池。
  • SQLParser

Druid的主要功能如下:

  • 是一个高效、功能强大、可扩展性好的数据库连接池。
  • 可以监控数据库访问性能。
  • 数据库密码加密
  • 获得SQL执行日志
  • 扩展JDBC

介绍方面这块就不再多说,具体的可以看官方文档。那么开始介绍Druid如何使用。
首先是Maven依赖,只需要添加druid这一个jar就行了。

  1. <dependency>
  2. <groupId>com.alibaba</groupId>
  3. <artifactId>druid</artifactId>
  4. <version>1.1.8</version>
  5. </dependency>

配置方面,主要的只需要在application.properties或application.yml添加如下就可以了。

  1. # 默认的数据源
  2. master.datasource.url=jdbc:mysql://localhost:3306/springBoot?useUnicode=true&characterEncoding=utf8&allowMultiQueries=true
  3. master.datasource.username=root
  4. master.datasource.password=123456
  5. master.datasource.driverClassName=com.mysql.jdbc.Driver
  6. # 另一个的数据源
  7. cluster.datasource.url=jdbc:mysql://localhost:3306/springBoot_test?useUnicode=true&characterEncoding=utf8
  8. cluster.datasource.username=root
  9. cluster.datasource.password=123456
  10. cluster.datasource.driverClassName=com.mysql.jdbc.Driver
  11. # 连接池的配置信息
  12. # 初始化大小,最小,最大
  13. spring.datasource.type=com.alibaba.druid.pool.DruidDataSource
  14. spring.datasource.initialSize=5
  15. spring.datasource.minIdle=5
  16. spring.datasource.maxActive=20
  17. # 配置获取连接等待超时的时间
  18. spring.datasource.maxWait=60000
  19. # 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒
  20. spring.datasource.timeBetweenEvictionRunsMillis=60000
  21. # 配置一个连接在池中最小生存的时间,单位是毫秒
  22. spring.datasource.minEvictableIdleTimeMillis=300000
  23. spring.datasource.validationQuery=SELECT 1 FROM DUAL
  24. spring.datasource.testWhileIdle=true
  25. spring.datasource.testOnBorrow=false
  26. spring.datasource.testOnReturn=false
  27. # 打开PSCache,并且指定每个连接上PSCache的大小
  28. spring.datasource.poolPreparedStatements=true
  29. spring.datasource.maxPoolPreparedStatementPerConnectionSize=20
  30. # 配置监控统计拦截的filters,去掉后监控界面sql无法统计,'wall'用于防火墙
  31. spring.datasource.filters=stat,wall,log4j
  32. # 通过connectProperties属性来打开mergeSql功能;慢SQL记录
  33. spring.datasource.connectionProperties=druid.stat.mergeSql=true;druid.stat.slowSqlMillis=5000

成功添加了配置文件之后,再来编写Druid相关的类。

配置默认数据源

首先是MasterDataSourceConfig.java这个类,这个是默认的数据源配置类。

  1. @Configuration
  2. @MapperScan(basePackages = MasterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "masterSqlSessionFactory")
  3. public class MasterDataSourceConfig {
  4. static final String PACKAGE = "com.pancm.dao.master";
  5. static final String MAPPER_LOCATION = "classpath:mapper/master/*.xml";
  6. @Value("${master.datasource.url}")
  7. private String url;
  8. @Value("${master.datasource.username}")
  9. private String username;
  10. @Value("${master.datasource.password}")
  11. private String password;
  12. @Value("${master.datasource.driverClassName}")
  13. private String driverClassName;
  14. @Value("${spring.datasource.initialSize}")
  15. private int initialSize;
  16. @Value("${spring.datasource.minIdle}")
  17. private int minIdle;
  18. @Value("${spring.datasource.maxActive}")
  19. private int maxActive;
  20. @Value("${spring.datasource.maxWait}")
  21. private int maxWait;
  22. @Value("${spring.datasource.timeBetweenEvictionRunsMillis}")
  23. private int timeBetweenEvictionRunsMillis;
  24. @Value("${spring.datasource.minEvictableIdleTimeMillis}")
  25. private int minEvictableIdleTimeMillis;
  26. @Value("${spring.datasource.validationQuery}")
  27. private String validationQuery;
  28. @Value("${spring.datasource.testWhileIdle}")
  29. private boolean testWhileIdle;
  30. @Value("${spring.datasource.testOnBorrow}")
  31. private boolean testOnBorrow;
  32. @Value("${spring.datasource.testOnReturn}")
  33. private boolean testOnReturn;
  34. @Value("${spring.datasource.poolPreparedStatements}")
  35. private boolean poolPreparedStatements;
  36. @Value("${spring.datasource.maxPoolPreparedStatementPerConnectionSize}")
  37. private int maxPoolPreparedStatementPerConnectionSize;
  38. @Value("${spring.datasource.filters}")
  39. private String filters;
  40. @Value("{spring.datasource.connectionProperties}")
  41. private String connectionProperties;
  42. @Bean(name = "masterDataSource")
  43. @Primary
  44. public DataSource masterDataSource() {
  45. DruidDataSource dataSource = new DruidDataSource();
  46. dataSource.setUrl(url);
  47. dataSource.setUsername(username);
  48. dataSource.setPassword(password);
  49. dataSource.setDriverClassName(driverClassName);
  50. //具体配置
  51. dataSource.setInitialSize(initialSize);
  52. dataSource.setMinIdle(minIdle);
  53. dataSource.setMaxActive(maxActive);
  54. dataSource.setMaxWait(maxWait);
  55. dataSource.setTimeBetweenEvictionRunsMillis(timeBetweenEvictionRunsMillis);
  56. dataSource.setMinEvictableIdleTimeMillis(minEvictableIdleTimeMillis);
  57. dataSource.setValidationQuery(validationQuery);
  58. dataSource.setTestWhileIdle(testWhileIdle);
  59. dataSource.setTestOnBorrow(testOnBorrow);
  60. dataSource.setTestOnReturn(testOnReturn);
  61. dataSource.setPoolPreparedStatements(poolPreparedStatements);
  62. dataSource.setMaxPoolPreparedStatementPerConnectionSize(maxPoolPreparedStatementPerConnectionSize);
  63. try {
  64. dataSource.setFilters(filters);
  65. } catch (SQLException e) {
  66. e.printStackTrace();
  67. }
  68. dataSource.setConnectionProperties(connectionProperties);
  69. return dataSource;
  70. }
  71. @Bean(name = "masterTransactionManager")
  72. @Primary
  73. public DataSourceTransactionManager masterTransactionManager() {
  74. return new DataSourceTransactionManager(masterDataSource());
  75. }
  76. @Bean(name = "masterSqlSessionFactory")
  77. @Primary
  78. public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
  79. throws Exception {
  80. final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
  81. sessionFactory.setDataSource(masterDataSource);
  82. sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
  83. .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
  84. return sessionFactory.getObject();
  85. }
  86. }

其中这两个注解说明下:

  • @Primary :标志这个 Bean 如果在多个同类 Bean 候选时,该 Bean 优先被考虑。多数据源配置的时候注意,必须要有一个主数据源,用 @Primary 标志该 Bean。
  • @MapperScan:扫描 Mapper 接口并容器管理。

    需要注意的是sqlSessionFactoryRef 表示定义一个唯一 SqlSessionFactory 实例。

上面的配置完之后,就可以将Druid作为连接池使用了。但是Druid并不简简单单的是个连接池,它也可以说是一个监控应用,它自带了web监控界面,可以很清晰的看到SQL相关信息。
在SpringBoot中运用Druid的监控作用,只需要编写StatViewServlet和WebStatFilter类,实现注册服务和过滤规则。这里可以将这两个写在一起,使用@Configuration@Bean
为了方便理解,相关的配置说明也写在代码中了,这里就不再过多赘述了。
代码如下:

  1. @Configuration
  2. public class DruidConfiguration {
  3. @Bean
  4. public ServletRegistrationBean druidStatViewServle() {
  5. //注册服务
  6. ServletRegistrationBean servletRegistrationBean = new ServletRegistrationBean(
  7. new StatViewServlet(), "/druid/*");
  8. // 白名单(为空表示,所有的都可以访问,多个IP的时候用逗号隔开)
  9. servletRegistrationBean.addInitParameter("allow", "127.0.0.1");
  10. // IP黑名单 (存在共同时,deny优先于allow)
  11. servletRegistrationBean.addInitParameter("deny", "127.0.0.2");
  12. // 设置登录的用户名和密码
  13. servletRegistrationBean.addInitParameter("loginUsername", "pancm");
  14. servletRegistrationBean.addInitParameter("loginPassword", "123456");
  15. // 是否能够重置数据.
  16. servletRegistrationBean.addInitParameter("resetEnable", "false");
  17. return servletRegistrationBean;
  18. }
  19. @Bean
  20. public FilterRegistrationBean druidStatFilter() {
  21. FilterRegistrationBean filterRegistrationBean = new FilterRegistrationBean(
  22. new WebStatFilter());
  23. // 添加过滤规则
  24. filterRegistrationBean.addUrlPatterns("/*");
  25. // 添加不需要忽略的格式信息
  26. filterRegistrationBean.addInitParameter("exclusions",
  27. "*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*");
  28. System.out.println("druid初始化成功!");
  29. return filterRegistrationBean;
  30. }
  31. }

编写完之后,启动程序,在浏览器输入:http://127.0.0.1:8084/druid/index.html ,然后输入设置的用户名和密码,便可以访问Web界面了。

多数据源配置

在进行多数据源配置之前,先分别在springBoot和springBoot_test的mysql数据库中执行如下脚本。

  1. -- springBoot库的脚本
  2. CREATE TABLE `t_user` (
  3. `id` int(11) NOT NULL AUTO_INCREMENT COMMENT '自增id',
  4. `name` varchar(10) DEFAULT NULL COMMENT '姓名',
  5. `age` int(2) DEFAULT NULL COMMENT '年龄',
  6. PRIMARY KEY (`id`)
  7. ) ENGINE=InnoDB AUTO_INCREMENT=15 DEFAULT CHARSET=utf8
  8. -- springBoot_test库的脚本
  9. CREATE TABLE `t_student` (
  10. `id` int(11) NOT NULL AUTO_INCREMENT,
  11. `name` varchar(16) DEFAULT NULL,
  12. `age` int(11) DEFAULT NULL,
  13. PRIMARY KEY (`id`)
  14. ) ENGINE=InnoDB AUTO_INCREMENT=2 DEFAULT CHARSET=utf8

在application.properties中已经配置这两个数据源的信息,上面已经贴出了一次配置。
这里重点说下 第二个数据源的配置。和上面的MasterDataSourceConfig.java差不多,区别在与没有使用@Primary 注解和名称不同而已。需要注意的是MasterDataSourceConfig.java对package和mapper的扫描是精确到目录的,这里的第二个数据源也是如此。
那么代码如下:

  1. @Configuration
  2. @MapperScan(basePackages = ClusterDataSourceConfig.PACKAGE, sqlSessionFactoryRef = "clusterSqlSessionFactory")
  3. public class ClusterDataSourceConfig {
  4. static final String PACKAGE = "com.pancm.dao.cluster";
  5. static final String MAPPER_LOCATION = "classpath:mapper/cluster/*.xml";
  6. @Value("${cluster.datasource.url}")
  7. private String url;
  8. @Value("${cluster.datasource.username}")
  9. private String username;
  10. @Value("${cluster.datasource.password}")
  11. private String password;
  12. @Value("${cluster.datasource.driverClassName}")
  13. private String driverClass;
  14. // 和MasterDataSourceConfig一样,这里略
  15. @Bean(name = "clusterDataSource")
  16. public DataSource clusterDataSource() {
  17. DruidDataSource dataSource = new DruidDataSource();
  18. dataSource.setUrl(url);
  19. dataSource.setUsername(username);
  20. dataSource.setPassword(password);
  21. dataSource.setDriverClassName(driverClass);
  22. // 和MasterDataSourceConfig一样,这里略 ...
  23. return dataSource;
  24. }
  25. @Bean(name = "clusterTransactionManager")
  26. public DataSourceTransactionManager clusterTransactionManager() {
  27. return new DataSourceTransactionManager(clusterDataSource());
  28. }
  29. @Bean(name = "clusterSqlSessionFactory")
  30. public SqlSessionFactory clusterSqlSessionFactory(@Qualifier("clusterDataSource") DataSource clusterDataSource)
  31. throws Exception {
  32. final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
  33. sessionFactory.setDataSource(clusterDataSource);
  34. sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver().getResources(ClusterDataSourceConfig.MAPPER_LOCATION));
  35. return sessionFactory.getObject();
  36. }
  37. }

成功写完配置之后,启动程序,进行测试。
分别在springBoot和springBoot_test库中使用接口进行添加数据。
t_user

  1. POST http://localhost:8084/api/user
  2. {"name":"张三","age":25}
  3. {"name":"李四","age":25}
  4. {"name":"王五","age":25}

t_student

  1. POST http://localhost:8084/api/student
  2. {"name":"学生A","age":16}
  3. {"name":"学生B","age":17}
  4. {"name":"学生C","age":18}

成功添加数据之后,然后进行调用不同的接口进行查询。
请求:

GET http://localhost:8084/api/user?name=李四

返回:

  1. {
  2. "id": 2,
  3. "name": "李四",
  4. "age": 25
  5. }

请求:

GET http://localhost:8084/api/student?name=学生C

返回:

  1. {
  2. "id": 1,
  3. "name": "学生C",
  4. "age": 16
  5. }

通过数据可以看出,成功配置了多数据源了。

PageHelper 分页实现

PageHelper是Mybatis的一个分页插件!PageHelper的使用很简单,只需要在Maven中添加pagehelper这个依赖就可以了。
Maven的依赖如下:

  1. <dependency>
  2. <groupId>com.github.pagehelper</groupId>
  3. <artifactId>pagehelper-spring-boot-starter</artifactId>
  4. <version>1.2.3</version>
  5. </dependency>

添加依赖之后,只需要添加如下配置或代码就可以了。
第一种,在application.properties或application.yml添加

  1. pagehelper:
  2. helperDialect: mysql
  3. offsetAsPageNum: true
  4. rowBoundsWithCount: true
  5. reasonable: false

第二种,在mybatis.xml配置中添加

  1. <bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">
  2. <property name="dataSource" ref="dataSource" />
  3. <!-- 扫描mapping.xml文件 -->
  4. <property name="mapperLocations" value="classpath:mapper/*.xml"></property>
  5. <!-- 配置分页插件 -->
  6. <property name="plugins">
  7. <array>
  8. <bean class="com.github.pagehelper.PageHelper">
  9. <property name="properties">
  10. <value>
  11. helperDialect=mysql
  12. offsetAsPageNum=true
  13. rowBoundsWithCount=true
  14. reasonable=false
  15. </value>
  16. </property>
  17. </bean>
  18. </array>
  19. </property>
  20. </bean>

第三种,在代码中添加,使用@Bean注解在启动程序的时候初始化。

  1. @Bean
  2. public PageHelper pageHelper(){
  3. PageHelper pageHelper = new PageHelper();
  4. Properties properties = new Properties();
  5. //数据库
  6. properties.setProperty("helperDialect", "mysql");
  7. //是否将参数offset作为PageNum使用
  8. properties.setProperty("offsetAsPageNum", "true");
  9. //是否进行count查询
  10. properties.setProperty("rowBoundsWithCount", "true");
  11. //是否分页合理化
  12. properties.setProperty("reasonable", "false");
  13. pageHelper.setProperties(properties);
  14. }

因为这里使用的是多数据源,所以这里的配置稍微有些不同。需要在sessionFactory这里配置。这里就对MasterDataSourceConfig.java进行相应的修改。
在masterSqlSessionFactory方法中,添加如下代码。

  1. @Bean(name = "masterSqlSessionFactory")
  2. @Primary
  3. public SqlSessionFactory masterSqlSessionFactory(@Qualifier("masterDataSource") DataSource masterDataSource)
  4. throws Exception {
  5. final SqlSessionFactoryBean sessionFactory = new SqlSessionFactoryBean();
  6. sessionFactory.setDataSource(masterDataSource);
  7. sessionFactory.setMapperLocations(new PathMatchingResourcePatternResolver()
  8. .getResources(MasterDataSourceConfig.MAPPER_LOCATION));
  9. //分页插件
  10. Interceptor interceptor = new PageInterceptor();
  11. Properties properties = new Properties();
  12. //数据库
  13. properties.setProperty("helperDialect", "mysql");
  14. //是否将参数offset作为PageNum使用
  15. properties.setProperty("offsetAsPageNum", "true");
  16. //是否进行count查询
  17. properties.setProperty("rowBoundsWithCount", "true");
  18. //是否分页合理化
  19. properties.setProperty("reasonable", "false");
  20. interceptor.setProperties(properties);
  21. sessionFactory.setPlugins(new Interceptor[] {interceptor});
  22. return sessionFactory.getObject();
  23. }

注:其它的数据源也想进行分页的时候,参照上面的代码即可。

这里需要注意的是reasonable参数,表示分页合理化,默认值为false。如果该参数设置为 true 时,pageNum<=0 时会查询第一页,pageNum>pages(超过总数时),会查询最后一页。默认false 时,直接根据参数进行查询。
设置完PageHelper 之后,使用的话,只需要在查询的sql前面添加PageHelper.startPage(pageNum,pageSize);,如果是想知道总数的话,在查询的sql语句后面添加 page.getTotal()就可以了。
代码示例:

  1. public List<T> findByListEntity(T entity) {
  2. List<T> list = null;
  3. try {
  4. Page<?> page =PageHelper.startPage(1,2);
  5. System.out.println(getClassName(entity)+"设置第一页两条数据!");
  6. list = getMapper().findByListEntity(entity);
  7. System.out.println("总共有:"+page.getTotal()+"条数据,实际返回:"+list.size()+"两条数据!");
  8. } catch (Exception e) {
  9. logger.error("查询"+getClassName(entity)+"失败!原因是:",e);
  10. }
  11. return list;
  12. }

代码编写完毕之后,开始进行最后的测试。
查询t_user表的所有的数据,并进行分页。
请求:

GET http://localhost:8084/api/user

返回:

  1. [
  2. {
  3. "id": 1,
  4. "name": "张三",
  5. "age": 25
  6. },
  7. {
  8. "id": 2,
  9. "name": "李四",
  10. "age": 25
  11. }
  12. ]

控制台打印:

  1. 开始查询...
  2. User设置第一页两条数据!
  3. 2018-04-27 19:55:50.769 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : ==> Preparing: SELECT count(0) FROM t_user WHERE 1 = 1
  4. 2018-04-27 19:55:50.770 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : ==> Parameters:
  5. 2018-04-27 19:55:50.771 DEBUG 6152 --- [io-8084-exec-10] c.p.d.m.UserDao.findByListEntity_COUNT : <== Total: 1
  6. 2018-04-27 19:55:50.772 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : ==> Preparing: select id, name, age from t_user where 1=1 LIMIT ?
  7. 2018-04-27 19:55:50.773 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : ==> Parameters: 2(Integer)
  8. 2018-04-27 19:55:50.774 DEBUG 6152 --- [io-8084-exec-10] c.p.dao.master.UserDao.findByListEntity : <== Total: 2
  9. 总共有:3条数据,实际返回:2两条数据!

查询t_student表的所有的数据,并进行分页。
请求:

GET http://localhost:8084/api/student

返回:

  1. [
  2. {
  3. "id": 1,
  4. "name": "学生A",
  5. "age": 16
  6. },
  7. {
  8. "id": 2,
  9. "name": "学生B",
  10. "age": 17
  11. }
  12. ]

控制台打印:

  1. 开始查询...
  2. Studnet设置第一页两条数据!
  3. 2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : ==> Preparing: SELECT count(0) FROM t_student WHERE 1 = 1
  4. 2018-04-27 19:54:56.155 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : ==> Parameters:
  5. 2018-04-27 19:54:56.156 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.S.findByListEntity_COUNT : <== Total: 1
  6. 2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : ==> Preparing: select id, name, age from t_student where 1=1 LIMIT ?
  7. 2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : ==> Parameters: 2(Integer)
  8. 2018-04-27 19:54:56.157 DEBUG 6152 --- [nio-8084-exec-8] c.p.d.c.StudentDao.findByListEntity : <== Total: 2
  9. 总共有:3条数据,实际返回:2两条数据!

查询完毕之后,可以在Druid 的监控界面看到操作的记录。
在浏览器输入:http://127.0.0.1:8084/druid/index.html