JavaMySQL

利用JAVA向MySQL插入一亿数量级数据—效率测评

MySQL优化中查询效率时,发现测试的数据太少(10万级别),利用 EXPLAIN 比较不同的 SQL 语句,不能够得到比较有效的测评数据,大多模棱两可,不敢通过这些数据下定论。
所以通过随机生成人的姓名、年龄、性别、电话、email、地址 ,向MySQL数据库大量插入数据,便于用大量的数据测试 SQL 语句优化效率。、在生成过程中发现使用不同的方法,效率天差万别。
1、先上MySQL数据库,随机生成的人员数据图。分别是ID、姓名、性别、年龄、Email、电话、住址。
下图一共三千三百万数据:
1亿条数据批量插入 MySQL,哪种方式最快? - 图1
在数据量在亿级别时,别点下面按钮,会导致Navicat持续加载这亿级别的数据,导致电脑死机。~觉着自己电脑配置不错的可以去试试,可能会有惊喜
1亿条数据批量插入 MySQL,哪种方式最快? - 图2
2、本次测评一共通过三种策略,五种情况,进行大批量数据插入测试
策略分别是:

  • Mybatis 轻量级框架插入(无事务)
  • 采用JDBC直接处理(开启事务、无事务)
  • 采用JDBC批处理(开启事务、无事务)

测试结果:
Mybatis轻量级插入 -> JDBC直接处理 -> JDBC 批处理。
JDBC 批处理,效率最高

第一种策略测试

2.1 Mybatis 轻量级框架插入(无事务)

Mybatis是一个轻量级框架,它比hibernate轻便、效率高。
但是处理大批量的数据插入操作时,需要过程中实现一个ORM的转换,本次测试存在实例,以及未开启事务,导致Mybatis效率很一般。
这里实验内容是:

  • 利用Spring框架生成mapper实例、创建人物实例对象
  • 循环更改该实例对象属性、并插入。 ```java //代码内无事务

private long begin = 33112001;//起始id private long end = begin+100000;//每次循环插入的数据量 private String url = “jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&characterEncoding=UTF-8”; private String user = “root”; private String password = “0203”;

@org.junit.Test public void insertBigData2(){ //加载Spring,以及得到PersonMapper实例对象。这里创建的时间并不对最后结果产生很大的影响 ApplicationContext context = new ClassPathXmlApplicationContext(“applicationContext.xml”); PersonMapper pMapper = (PersonMapper) context.getBean(“personMapper”); //创建一个人实例 Person person = new Person(); //计开始时间 long bTime = System.currentTimeMillis(); //开始循环,循环次数500W次。 for(int i=0;i<5000000;i++) { //为person赋值 person.setId(i); person.setName(RandomValue.getChineseName()); person.setSex(RandomValue.name_sex); person.setAge(RandomValue.getNum(1, 100)); person.setEmail(RandomValue.getEmail(4,15)); person.setTel(RandomValue.getTel()); person.setAddress(RandomValue.getRoad()); //执行插入语句 pMapper.insert(person); begin++; } //计结束时间 long eTime = System.currentTimeMillis(); System.out.println(“插入500W条数据耗时:”+(eTime-bTime)); }

  1. 本想测试插入五百万条数据,但是实际运行过程中太慢,中途不得不终止程序。最后得到52W数据,大约耗时两首歌的时间(7~9分钟)。随后,利用MybatisMySQL插入10000数据。<br />结果如下:<br />利用Mybatis插入 一万 条数据耗时:28613,即28.6秒<br />![](https://cdn.nlark.com/yuque/0/2022/png/396745/1652530766287-23cce0f7-81ce-4da1-bf24-e6846c8358e2.png#clientId=u03dca9ad-e656-4&crop=0&crop=0&crop=1&crop=1&from=paste&id=u02cc7e46&margin=%5Bobject%20Object%5D&originHeight=524&originWidth=1080&originalType=url&ratio=1&rotation=0&showTitle=false&status=done&style=shadow&taskId=u6a09bb5f-a50e-4807-b006-69cbbff1b97&title=)
  2. <a name="V8wX7"></a>
  3. ### 第二种策略测试
  4. <a name="QDxbG"></a>
  5. #### 2.2 采用JDBC直接处理(开启事务、关闭事务)
  6. 采用JDBC直接处理的策略,这里的实验内容分为开启事务、未开启事务是两种,过程均如下:
  7. - 利用`PreparedStatment`预编译
  8. - 循环,插入对应数据,并存入
  9. **事务对于插入数据有多大的影响呢?** 看下面的实验结果:
  10. ```java
  11. //该代码为开启事务
  12. private long begin = 33112001;//起始id
  13. private long end = begin+100000;//每次循环插入的数据量
  14. private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
  15. private String user = "root";
  16. private String password = "0203";
  17. @org.junit.Test
  18. public void insertBigData3() {
  19. //定义连接、statement对象
  20. Connection conn = null;
  21. PreparedStatement pstm = null;
  22. try {
  23. //加载jdbc驱动
  24. Class.forName("com.mysql.jdbc.Driver");
  25. //连接mysql
  26. conn = DriverManager.getConnection(url, user, password);
  27. //将自动提交关闭
  28. conn.setAutoCommit(false);
  29. //编写sql
  30. String sql = "INSERT INTO person VALUES (?,?,?,?,?,?,?)";
  31. //预编译sql
  32. pstm = conn.prepareStatement(sql);
  33. //开始总计时
  34. long bTime1 = System.currentTimeMillis();
  35. //循环10次,每次一万数据,一共10万
  36. for (int i = 0; i < 10; i++) {
  37. //开启分段计时,计1W数据耗时
  38. long bTime = System.currentTimeMillis();
  39. //开始循环
  40. while (begin < end) {
  41. //赋值
  42. pstm.setLong(1, begin);
  43. pstm.setString(2, RandomValue.getChineseName());
  44. pstm.setString(3, RandomValue.name_sex);
  45. pstm.setInt(4, RandomValue.getNum(1, 100));
  46. pstm.setString(5, RandomValue.getEmail(4, 15));
  47. pstm.setString(6, RandomValue.getTel());
  48. pstm.setString(7, RandomValue.getRoad());
  49. //执行sql
  50. pstm.execute();
  51. begin++;
  52. }
  53. //提交事务
  54. conn.commit();
  55. //边界值自增10W
  56. end += 10000;
  57. //关闭分段计时
  58. long eTime = System.currentTimeMillis();
  59. //输出
  60. System.out.println("成功插入1W条数据耗时:" + (eTime - bTime));
  61. }
  62. //关闭总计时
  63. long eTime1 = System.currentTimeMillis();
  64. //输出
  65. System.out.println("插入10W数据共耗时:" + (eTime1 - bTime1));
  66. } catch (SQLException e) {
  67. e.printStackTrace();
  68. } catch (ClassNotFoundException e1) {
  69. e1.printStackTrace();
  70. }
  71. }

1、首先利用上述代码测试无事务状态下,插入10W条数据需要耗时多少。
如图:
1亿条数据批量插入 MySQL,哪种方式最快? - 图3

  1. 成功插入1W条数据耗时:21603
  2. 成功插入1W条数据耗时:20537
  3. 成功插入1W条数据耗时:20470
  4. 成功插入1W条数据耗时:21160
  5. 成功插入1W条数据耗时:23270
  6. 成功插入1W条数据耗时:21230
  7. 成功插入1W条数据耗时:20372
  8. 成功插入1W条数据耗时:22608
  9. 成功插入1W条数据耗时:20361
  10. 成功插入1W条数据耗时:20494
  11. 插入10W数据共耗时:212106

实验结论如下:

在未开启事务的情况下,平均每 21.2 秒插入 一万 数据。

接着测试开启事务后,插入十万条数据耗时,如图:
1亿条数据批量插入 MySQL,哪种方式最快? - 图4

  1. 成功插入1W条数据耗时:4938
  2. 成功插入1W条数据耗时:3518
  3. 成功插入1W条数据耗时:3713
  4. 成功插入1W条数据耗时:3883
  5. 成功插入1W条数据耗时:3872
  6. 成功插入1W条数据耗时:3873
  7. 成功插入1W条数据耗时:3863
  8. 成功插入1W条数据耗时:3819
  9. 成功插入1W条数据耗时:3933
  10. 成功插入1W条数据耗时:3811
  11. 插入10W数据共耗时:39255

实验结论如下:

开启事务后,平均每 3.9 秒插入 一万 数据

第三种策略测试

2.3 采用JDBC批处理(开启事务、无事务)

采用JDBC批处理时需要注意一下几点:
1、在URL连接时需要开启批处理、以及预编译

  1. String url = "jdbc:mysql://localhost:3306/User?rewriteBatched-Statements=true&useServerPrepStmts=false";

2、PreparedStatement预处理sql语句必须放在循环体外
代码如下:

  1. private long begin = 33112001;//起始id
  2. private long end = begin+100000;//每次循环插入的数据量
  3. private String url = "jdbc:mysql://localhost:3306/bigdata?useServerPrepStmts=false&rewriteBatchedStatements=true&useUnicode=true&amp;characterEncoding=UTF-8";
  4. private String user = "root";
  5. private String password = "0203";
  6. @org.junit.Test
  7. public void insertBigData() {
  8. //定义连接、statement对象
  9. Connection conn = null;
  10. PreparedStatement pstm = null;
  11. try {
  12. //加载jdbc驱动
  13. Class.forName("com.mysql.jdbc.Driver");
  14. //连接mysql
  15. conn = DriverManager.getConnection(url, user, password);
  16. //将自动提交关闭
  17. // conn.setAutoCommit(false);
  18. //编写sql
  19. String sql = "INSERT INTO person VALUES (?,?,?,?,?,?,?)";
  20. //预编译sql
  21. pstm = conn.prepareStatement(sql);
  22. //开始总计时
  23. long bTime1 = System.currentTimeMillis();
  24. //循环10次,每次十万数据,一共1000万
  25. for(int i=0;i<10;i++) {
  26. //开启分段计时,计1W数据耗时
  27. long bTime = System.currentTimeMillis();
  28. //开始循环
  29. while (begin < end) {
  30. //赋值
  31. pstm.setLong(1, begin);
  32. pstm.setString(2, RandomValue.getChineseName());
  33. pstm.setString(3, RandomValue.name_sex);
  34. pstm.setInt(4, RandomValue.getNum(1, 100));
  35. pstm.setString(5, RandomValue.getEmail(4, 15));
  36. pstm.setString(6, RandomValue.getTel());
  37. pstm.setString(7, RandomValue.getRoad());
  38. //添加到同一个批处理中
  39. pstm.addBatch();
  40. begin++;
  41. }
  42. //执行批处理
  43. pstm.executeBatch();
  44. //提交事务
  45. // conn.commit();
  46. //边界值自增10W
  47. end += 100000;
  48. //关闭分段计时
  49. long eTime = System.currentTimeMillis();
  50. //输出
  51. System.out.println("成功插入10W条数据耗时:"+(eTime-bTime));
  52. }
  53. //关闭总计时
  54. long eTime1 = System.currentTimeMillis();
  55. //输出
  56. System.out.println("插入100W数据共耗时:"+(eTime1-bTime1));
  57. } catch (SQLException e) {
  58. e.printStackTrace();
  59. } catch (ClassNotFoundException e1) {
  60. e1.printStackTrace();
  61. }
  62. }

首先开始测试

无事务,每次循环插入10W条数据,循环10次,一共100W条数据。
结果如下图:
1亿条数据批量插入 MySQL,哪种方式最快? - 图5

  1. 成功插入10W条数据耗时:3832
  2. 成功插入10W条数据耗时:1770
  3. 成功插入10W条数据耗时:2628
  4. 成功插入10W条数据耗时:2140
  5. 成功插入10W条数据耗时:2148
  6. 成功插入10W条数据耗时:1757
  7. 成功插入10W条数据耗时:1767
  8. 成功插入10W条数据耗时:1832
  9. 成功插入10W条数据耗时:1830
  10. 成功插入10W条数据耗时:2031
  11. 插入100W数据共耗时:21737

实验结果:

使用JDBC批处理,未开启事务下,平均每 2.1 秒插入 十万 条数据

接着测试

开启事务,每次循环插入10W条数据,循环10次,一共100W条数据。
结果如下图:
1亿条数据批量插入 MySQL,哪种方式最快? - 图6

  1. 成功插入10W条数据耗时:3482
  2. 成功插入10W条数据耗时:1776
  3. 成功插入10W条数据耗时:1979
  4. 成功插入10W条数据耗时:1730
  5. 成功插入10W条数据耗时:1643
  6. 成功插入10W条数据耗时:1665
  7. 成功插入10W条数据耗时:1622
  8. 成功插入10W条数据耗时:1624
  9. 成功插入10W条数据耗时:1779
  10. 成功插入10W条数据耗时:1698
  11. 插入100W数据共耗时:19003

实验结果:

使用JDBC批处理,开启事务,平均每 1.9 秒插入 十万 条数据

总结

能够看到,在开启事务下 JDBC直接处理 和 JDBC批处理 均耗时更短。

  • Mybatis 轻量级框架插入,实际开启事务以后,差距不会这么大(差距10倍)。
  • JDBC直接处理,在本次实验,开启事务和关闭事务,耗时差距5倍左右,并且这个倍数会随着数据量的增大而增大。因为在未开启事务时,更新10000条数据,就得访问数据库10000次。导致每次操作都需要操作一次数据库。
  • JDBC批处理,在本次实验,开启事务与关闭事务,耗时差距很微小(后面会增加测试,加大这个数值的差距)。但是能够看到开启事务以后,速度还是有提升。

结论:设计到大量单条数据的插入,使用JDBC批处理和事务混合速度最快
实测使用批处理+事务混合插入1亿条数据耗时:174756毫秒

补充

JDBC批处理事务,开启和关闭事务,测评插入20次,一次50W数据,一共一千万数据耗时:
1、开启事务
插入1000W数据共耗时:197654
2、关闭事务
插入1000W数据共耗时:200540
还是没很大的差距~
1亿条数据批量插入 MySQL,哪种方式最快? - 图7
分别是:

  • 不用批处理,不用事务;
  • 只用批处理,不用事务;
  • 只用事务,不用批处理;
  • 既用事务,也用批处理;(很明显,这个最快,所以建议在处理大批量的数据时,同时使用批处理和事务)