• mysql数据900W+从17s到300ms是怎么做到的?sql优化的魅力(荣耀典藏版)


    前言

    首先说明一下MySQL的版本:

    1. mysql> select version();
    2. +-----------+
    3. | version() |
    4. +-----------+
    5. | 5.7.17 |
    6. +-----------+
    7. 1 row in set (0.00 sec)

    表结构:

    1. mysql> desc test;
    2. +--------+---------------------+------+-----+---------+----------------+
    3. | Field | Type | Null | Key | Default | Extra |
    4. +--------+---------------------+------+-----+---------+----------------+
    5. | id | bigint(20) unsigned | NO | PRI | NULL | auto_increment |
    6. | val | int(10) unsigned | NO | MUL | 0 | |
    7. | source | int(10) unsigned | NO | | 0 | |
    8. +--------+---------------------+------+-----+---------+----------------+
    9. 3 rows in set (0.00 sec)

    id为自增主键,val为非唯一索引。灌入大量数据,共500万:

    1. mysql> select count(*) from test;
    2. +----------+
    3. | count(*) |
    4. +----------+
    5. | 5242882 |
    6. +----------+
    7. 1 row in set (4.25 sec)

    我们知道,当limit offset rows中的offset很大时,会出现效率问题:

    1. mysql> select * from test where val=4 limit 300000,5;
    2. +---------+-----+--------+
    3. | id | val | source |
    4. +---------+-----+--------+
    5. | 3327622 | 4 | 4 |
    6. | 3327632 | 4 | 4 |
    7. | 3327642 | 4 | 4 |
    8. | 3327652 | 4 | 4 |
    9. | 3327662 | 4 | 4 |
    10. +---------+-----+--------+
    11. 5 rows in set (15.98 sec)

    为了达到相同的目的,我们一般会改写成如下语句:

    1. mysql> select * from test a inner join (select id from test where val=4 limit 300000,5) b on a.id=b.id;
    2. +---------+-----+--------+---------+
    3. | id | val | source | id |
    4. +---------+-----+--------+---------+
    5. | 3327622 | 4 | 4 | 3327622 |
    6. | 3327632 | 4 | 4 | 3327632 |
    7. | 3327642 | 4 | 4 | 3327642 |
    8. | 3327652 | 4 | 4 | 3327652 |
    9. | 3327662 | 4 | 4 | 3327662 |
    10. +---------+-----+--------+---------+
    11. 5 rows in set (0.38 sec)

     时间相差很明显。

    为什么会出现上面的结果?我们看一下select * from test where val=4 limit 300000,5;的查询过程:

    查询到索引叶子节点数据。根据叶子节点上的主键值去聚簇索引上查询需要的全部字段值。

    类似于下面这张图:

    像上面这样,需要查询300005次索引节点,查询300005次聚簇索引的数据,最后再将结果过滤掉前300000条,取出最后5条。MySQL耗费了大量随机I/O在查询聚簇索引的数据上,而有300000次随机I/O查询到的数据是不会出现在结果集当中的。

    肯定会有人问:既然一开始是利用索引的,为什么不先沿着索引叶子节点查询到最后需要的5个节点,然后再去聚簇索引中查询实际数据。这样只需要5次随机I/O,类似于下面图片的过程:

     其实我也想问这个问题。

    一、 需要解决的问题

    有一张财务流水表,未分库分表,目前的数据量为9555695,分页查询使用到了limit,优化之前的查询耗时16 s 938 ms (execution: 16 s 831 ms, fetching: 107 ms),按照下文的方式调整SQL后,耗时347 ms (execution: 163 ms, fetching: 184 ms);

    操作: 查询条件放到子查询中,子查询只查主键ID,然后使用子查询中确定的主键关联查询其他的属性字段;

    原理:

    1. 减少回表操作;

    2. 可参考《阿里巴巴Java开发手册(泰山版)》第五章-MySQL数据库、(二)索引规约、第7条:

    【推荐】利用延迟关联或者子查询优化超多分页场景。

    说明:MySQL并不是挑过offeset行,而是取offset+N行,然后返回放弃前offset行,返回N行,那当offset特别大的时候,效率就非常的底下,要么控制返回的总页数,要么对超过特定阈值的页数进行SQL改写。

    正例:先快速定位需要获取的id段,然后再关联:

    SELECT a.* FROM 表1 a,(select id from 表1 where 条件 LIMIT 100000,20) b where a.id = b.id;

    1. -- 优化前SQL
    2. SELECT 各种字段
    3. FROM `table_name`
    4. WHERE 各种条件
    5. LIMIT 0,10;
    6. -- 优化后SQL
    7. SELECT 各种字段
    8. FROM `table_name` main_tale
    9. RIGHT JOIN
    10. (
    11. SELECT 子查询只查主键
    12. FROM `table_name`
    13. WHERE 各种条件
    14. LIMIT 0,10;
    15. ) temp_table ON temp_table.主键 = main_table.主键

    二、证实

    下面我们实际操作一下来证实上述的推论:

    为了证实 select * from test where val=4 limit 300000,5;是扫描300005个索引节点和300005个聚簇索引上的数据节点,我们需要知道MySQL有没有办法统计在一个sql中通过索引节点查询数据节点的次数。我先试了Handler_read_*系列,很遗憾没有一个变量能满足条件。

    我只能通过间接的方式来证实:

    InnoDB中有buffer pool。里面存有最近访问过的数据页,包括数据页和索引页。所以我们需要运行两个sql,来比较buffer pool中的数据页的数量。预测结果是运行 select * from test a inner join (select id from test where val=4 limit 300000,5); 之后,buffer pool中的数据页的数量远远少于select * from test where val=4 limit 300000,5;对应的数量,因为前一个sql只访问5次数据页,而后一个sql访问300005次数据页。

    select * from test where val=4 limit 300000,5
    1. mysql> select index_name,count(*from information_schema.INNODB_BUFFER_PAGE 
    2. where INDEX_NAME in('val','primary'and TABLE_NAME like '%test%' 
    3. group by index_name;Empty set (0.04 sec)

    可以看出,目前buffer pool中没有关于test表的数据页。

    1. mysql> select * from test where val=4 limit 300000,5;
    2. +---------+-----+--------+
    3. | id      | val | source |
    4. +---------+-----+--------+| 
    5. 3327622 |   4 |      4 |
    6. | 3327632 |   4 |      4 |
    7. | 3327642 |   4 |      4 |
    8. | 3327652 |   4 |      4 |
    9. | 3327662 |   4 |      4 |
    10. +---------+-----+--------+
    11. 5 rows in set (26.19 sec)
    12. mysql> select index_name,count(*from information_schema.INNODB_BUFFER_PAGE where INDEX_NAME in('val','primary'and TABLE_NAME like '%test%' group by index_name;
    13. +------------+----------+
    14. | index_name | count(*|
    15. +------------+----------+
    16. | PRIMARY    |     4098 |
    17. | val        |      208 |
    18. +------------+----------+2 rows in set (0.04 sec)

    可以看出,此时buffer pool中关于test表有4098个数据页,208个索引页。

    select * from test a inner join (select id from test where val=4 limit 300000,5

    为了防止上次试验的影响,我们需要清空buffer pool,重启mysql。

    1. mysqladmin shutdown
    2. /usr/local/bin/mysqld_safe &
    1. mysql> select index_name,count(*from information_schema.INNODB_BUFFER_PAGE 
    2. where INDEX_NAME in('val','primary'and TABLE_NAME like '%test%' group by index_name;
    3. Empty set (0.03 sec)

    运行sql:

    1. mysql> select * from test a inner join (select id from test where val=4 limit 300000,5) b on a.id=b.id;
    2. +---------+-----+--------+---------+
    3. | id      | val | source | id      |
    4. +---------+-----+--------+---------+
    5. | 3327622 |   4 |      4 | 3327622 |
    6. | 3327632 |   4 |      4 | 3327632 |
    7. | 3327642 |   4 |      4 | 3327642 |
    8. | 3327652 |   4 |      4 | 3327652 |
    9. | 3327662 |   4 |      4 | 3327662 |
    10. +---------+-----+--------+---------+
    11. 5 rows in set (0.09 sec)
    12. mysql> select index_name,count(*from information_schema.INNODB_BUFFER_PAGE where INDEX_NAME in('val','primary'and TABLE_NAME like '%test%' group by index_name;
    13. +------------+----------+
    14. | index_name | count(*|
    15. +------------+----------+
    16. | PRIMARY    |        5 |
    17. | val        |      390 |
    18. +------------+----------+
    19. 2 rows in set (0.03 sec)

    我们可以看明显的看出两者的差别:第一个sql加载了4098个数据页到buffer pool,而第二个sql只加载了5个数据页到buffer pool。符合我们的预测。也证实了为什么第一个sql会慢:读取大量的无用数据行(300000),最后却抛弃掉。

    而且这会造成一个问题:加载了很多热点不是很高的数据页到buffer pool,会造成buffer pool的污染,占用buffer pool的空间遇到的问题

    三、总结

    为了在每次重启时确保清空buffer pool,我们需要关闭innodb_buffer_pool_dump_at_shutdown和innodb_buffer_pool_load_at_startup,这两个选项能够控制数据库关闭时dump出buffer pool中的数据和在数据库开启时载入在磁盘上备份buffer pool的数据。

  • 相关阅读:
    互联网摸鱼日报(2023-09-20)
    【java】使用springMVC优雅的响应数据
    [PAT练级笔记] 33 Basic Level 1033 旧键盘打字
    Vue——全局组件、局部组件、组件的嵌套、单文件组件、组件的属性、v-slot: 插槽、css的作用域、面试题(组件基础)
    正则表达式
    脱贫攻坚战!武汉市脱贫村科技特派员工作站申报条件和申报流程
    虚拟机weblogic服务搭建及访问(物理机 )
    猴子也能学会的jQuery第十二期——jQuery遍历(上)
    shell脚本踩坑,source中文properties。
    字节输入流【InputStream】(读文件)
  • 原文地址:https://blog.csdn.net/weixin_48321993/article/details/125905032