数据库

准备数据

采用数据库脚本创建数据执行速度快很多。

创建表

  1. CREATE TABLE `user_operation_log` (
  2. `id` int(11) NOT NULL AUTO_INCREMENT,
  3. `user_id` varchar(64) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  4. `ip` varchar(20) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  5. `op_data` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  6. `attr1` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  7. `attr2` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  8. `attr3` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  9. `attr4` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  10. `attr5` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  11. `attr6` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  12. `attr7` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  13. `attr8` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  14. `attr9` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  15. `attr10` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  16. `attr11` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  17. `attr12` varchar(255) CHARACTER SET utf8mb4 COLLATE utf8mb4_general_ci NULL DEFAULT NULL,
  18. PRIMARY KEY (`id`) USING BTREE
  19. ) ENGINE = InnoDB AUTO_INCREMENT = 1 CHARACTER SET = utf8mb4 COLLATE = utf8mb4_general_ci ROW_FORMAT = Dynamic;

创建数据脚本

采用批量插入,效率会快很多,而且每1000条数就commit,数据量太大,也会导致批量插入效率慢

  1. DELIMITER ;;
  2. CREATE PROCEDURE batch_insert_log()
  3. BEGIN
  4. DECLARE i INT DEFAULT 1;
  5. DECLARE userId INT DEFAULT 10000000;
  6. set @execSql = 'INSERT INTO `test`.`user_operation_log`(`user_id`, `ip`, `op_data`, `attr1`, `attr2`, `attr3`, `attr4`, `attr5`, `attr6`, `attr7`, `attr8`, `attr9`, `attr10`, `attr11`, `attr12`) VALUES';
  7. set @execData = '';
  8. WHILE i<=10000000 DO
  9. set @attr = "'测试很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长很长的属性'";
  10. set @execData = concat(@execData, "(", userId + i, ", '10.0.69.175', '用户登录操作'", ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ",", @attr, ")");
  11. if i % 1000 = 0
  12. then
  13. set @stmtSql = concat(@execSql, @execData,";");
  14. prepare stmt from @stmtSql;
  15. execute stmt;
  16. DEALLOCATE prepare stmt;
  17. commit;
  18. set @execData = "";
  19. else
  20. set @execData = concat(@execData, ",");
  21. end if;
  22. SET i=i+1;
  23. END WHILE;
  24. END;;
  25. DELIMITER ;

开始测试

由于配置低,本次测试只准备了3148000条数据,占用了磁盘5G(还没建索引的情况下),跑了38min,电脑配置好的同学,可以插入多点数据测试

  1. SELECT count(1) FROM `user_operation_log`

返回结果:3148000
三次查询时间分别为:

  • 14060 ms
  • 13755 ms
  • 13447 ms

    普通分页查询

    MySQL 支持 LIMIT 语句来选取指定的条数数据, Oracle 可以使用 ROWNUM 来选取。
    MySQL分页查询语法如下:

    1. SELECT * FROM table LIMIT [offset,] rows | rows OFFSET offset
  • 第一个参数指定第一个返回记录行的偏移量

  • 第二个参数指定返回记录行的最大数目

下面开始测试查询结果:

  1. SELECT * FROM `user_operation_log` LIMIT 10000, 10

查询3次时间分别为:

  • 59 ms
  • 49 ms
  • 50 ms

这样看起来速度还行,不过是本地数据库,速度自然快点。
换个角度来测试

相同偏移量,不同数据量

  1. SELECT * FROM `user_operation_log` LIMIT 10000, 10
  2. SELECT * FROM `user_operation_log` LIMIT 10000, 100
  3. SELECT * FROM `user_operation_log` LIMIT 10000, 1000
  4. SELECT * FROM `user_operation_log` LIMIT 10000, 10000
  5. SELECT * FROM `user_operation_log` LIMIT 10000, 100000
  6. SELECT * FROM `user_operation_log` LIMIT 10000, 1000000

查询时间如下:

数量 第一次 第二次 第三次
10条 53ms 52ms 47ms
100条 50ms 60ms 55ms
1000条 61ms 74ms 60ms
10000条 164ms 180ms 217ms
100000条 1609ms 1741ms 1764ms
1000000条 16219ms 16889ms 17081ms

从上面结果可以得出结论:数据量越大,花费时间越长

相同数据量,不同偏移量

  1. SELECT * FROM `user_operation_log` LIMIT 100, 100
  2. SELECT * FROM `user_operation_log` LIMIT 1000, 100
  3. SELECT * FROM `user_operation_log` LIMIT 10000, 100
  4. SELECT * FROM `user_operation_log` LIMIT 100000, 100
  5. SELECT * FROM `user_operation_log` LIMIT 1000000, 100
偏移量 第一次 第二次 第三次
100 36ms 40ms 36ms
1000 31ms 38ms 32ms
10000 53ms 48ms 51ms
100000 622ms 576ms 627ms
1000000 4891ms 5076ms 4856ms

从上面结果可以得出结论:偏移量越大,花费时间越长

  1. SELECT * FROM `user_operation_log` LIMIT 100, 100
  2. SELECT id, attr FROM `user_operation_log` LIMIT 100, 100

如何优化

既然经过上面一番的折腾,也得出了结论,针对上面两个问题:偏移大、数据量大,分别着手优化

优化偏移量大问题

采用子查询方式

可以先定位偏移位置的 id,然后再查询数据

  1. SELECT * FROM `user_operation_log` LIMIT 1000000, 10
  2. SELECT id FROM `user_operation_log` LIMIT 1000000, 1
  3. SELECT * FROM `user_operation_log` WHERE id >= (SELECT id FROM `user_operation_log` LIMIT 1000000, 1) LIMIT 10

查询结果如下:

sql 花费时间
第一条 4818ms
第二条(无索引情况下) 4329ms
第二条(有索引情况下) 199ms
第三条(无索引情况下) 4319ms
第三条(有索引情况下) 201ms

从上面结果得出结论:

  • 第一条花费的时间最大,第三条比第一条稍微好点
  • 子查询使用索引速度更快

缺点:只适用于id递增的情况
id非递增的情况可以使用以下写法,但这种缺点是分页查询只能放在子查询里面
注意:某些 mysql 版本不支持在 in 子句中使用 limit,所以采用了多个嵌套select

  1. SELECT * FROM `user_operation_log` WHERE id IN (SELECT t.id FROM (SELECT id FROM `user_operation_log` LIMIT 1000000, 10) AS t)

采用 id 限定方式

这种方法要求更高些,id必须是连续递增,而且还得计算id的范围,然后使用 between,sql如下

  1. SELECT * FROM `user_operation_log` WHERE id between 1000000 AND 1000100 LIMIT 100
  2. SELECT * FROM `user_operation_log` WHERE id >= 1000000 LIMIT 100

查询结果如下:

sql 花费时间
第一条 22ms
第二条 21ms

从结果可以看出这种方式非常快 :::danger 注意:这里的 LIMIT 是限制了条数,没有采用偏移量 :::

优化数据量大问题

返回结果的数据量也会直接影响速度

  1. SELECT * FROM `user_operation_log` LIMIT 1, 1000000
  2. SELECT id FROM `user_operation_log` LIMIT 1, 1000000
  3. SELECT id, user_id, ip, op_data, attr1, attr2, attr3, attr4, attr5, attr6, attr7, attr8, attr9, attr10, attr11, attr12 FROM `user_operation_log` LIMIT 1, 1000000

查询结果如下:

sql 花费时间
第一条 15676ms
第二条 7298ms
第三条 15960ms

从结果可以看出减少不需要的列,查询效率也可以得到明显提升
第一条和第三条查询速度差不多,这时候肯定会吐槽,那还写那么多字段干啥呢,直接 * 不就完事了
注意这里的 MySQL 服务器和客户端是在同一台机器上,所以查询数据相差不多,有条件的同学可以测测客户端与MySQL分开。

为什么要禁止 SELECT *

主要两点:

  1. 用 “SELECT * “ 数据库需要解析更多的对象、字段、权限、属性等相关内容,在 SQL 语句复杂,硬解析较多的情况下,会对数据库造成沉重的负担。
  2. 增大网络开销,* 有时会误带上如log、IconMD5之类的无用且大文本字段,数据传输size会几何增涨。特别是MySQL和应用程序不在同一台机器,这种开销非常明显。