文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

《MySQL高级篇》七、性能分析工具的使用(慢查询日志 | EXPLAIN | SHOW PROFILING | 视图分析 )

2023-08-18 20:32

关注

📒博客首页:热爱编程的大李子 📒

🌞文章目的:性能分析工具的使用(慢查询日志 | EXPLAIN | SHOW PROFILING | 视图分析 )🌞

⛅️文章出处:MySQL数据库教程天花板 ⛅️

🙏博主在学习阶段,如若发现问题,请告知,非常感谢🙏

💙同时也非常感谢各位小伙伴们的支持💙

🌈每日一语:脚踏实地,勇往直前,你走过的路,每一步都算数!🌈

💗感谢: 我只是站在巨人们的肩膀上整理本篇文章,感谢走在前路的大佬们!💗

🌟最后,祝大家每天进步亿点点! 欢迎大家点赞👍➕收藏⭐️➕评论💬支持博主🤞!🌟

👀文末福利:给大家推荐一款很火爆的刷题、面试求职网站 👀


在数据库调优中,我们的目标就是 响应时间更快,吞吐量更大。利用宏观的监控工具和微观的日志分析可以帮我们快速找到调优的思路和方式

当我们遇到数据库调优问题的时候,该如何思考呢?这里把思考的流程整理成下面这张图。

整个流程划分成了 观察(Show status)行动(Action) 两个部分。字母 S 的部分代表观察(会使用相应的分析工具),字母 A 代表的部分是行动(对应分析可以采取的行动)

image-20220811114111312


image-20220811114145753

可以看到数据库调优的步骤中越往金字塔尖走,其成本越高,效果越差,因此我们在数据库调优的过程中,要重点把握金字塔底部的 sql 及索引调优,数据库表结构调优,系统配置参数调优等软件层面的调优

可以使用 SHOW STATUS 语句查询一些数据库服务器的性能参数和使用频率

其语法如下:

SHOW [GLOBAL][SESSION] STATUES LIKE '参数';

一些常用的性能参数如下:

Connections:连接MySQL服务器的次数。
Uptime:MySQL服务器的上线时间。
Slow_queries:慢查询的次数。
Innodb_rows_read:Select查询返回的行数
Innodb_rows_inserted:执行INSERT操作插入的行数
Innodb_rows_updated:执行UPDATE操作更新的行数
Innodb_rows_deleted:执行DELETE操作删除的行数
Com_select:查询操作的次数。
Com_insert:插入操作的次数。对于批量插入的 INSERT 操作,只累加一次。
Com_update:更新操作的次数。
Com_delete:删除操作的次数。

举例:

mysql> SHOW STATUS LIKE 'Connections';+---------------+-------+| Variable_name | Value |+---------------+-------+| Connections   | 34    |+---------------+-------+1 row in set (0.00 sec)
mysql> SHOW STATUS LIKE 'Uptime';+---------------+--------+| Variable_name | Value  |+---------------+--------+| Uptime        | 332933 |+---------------+--------+1 row in set (0.00 sec)
mysql> SHOW STATUS LIKE 'Slow_queries';+---------------+-------+| Variable_name | Value |+---------------+-------+| Slow_queries  | 0     |+---------------+-------+1 row in set (0.00 sec)

注:慢查询次数参数可以结合慢查询日志找出慢查询语句,然后针对慢查询语句进行 表结构优化 或者查询语句优化

mysql> show status like 'innodb_rows_%';+----------------------+----------+| Variable_name        | Value    |+----------------------+----------+| Innodb_rows_deleted  | 0        || Innodb_rows_inserted | 1000902  || Innodb_rows_read     | 37011100 || Innodb_rows_updated  | 0        |+----------------------+----------+4 rows in set (0.00 sec)

image-20220811122857202

我们依然使用student_info表为例(具体库表创建以及生成数据语句请参考上一篇章)

①如果我们想要查询 id=900001 的记录,我们可以直接在聚簇索引上进行查找:

mysql> SELECT * FROM student_info WHERE id = 900001;+--------+------------+--------+-----------+----------+---------------------+| id     | student_id | name   | course_id | class_id | create_time         |+--------+------------+--------+-----------+----------+---------------------+| 900001 |     154633 | SYnwsA |     10019 |    10134 | 2022-08-08 22:33:02 |+--------+------------+--------+-----------+----------+---------------------+1 row in set (0.00 sec)

然后再看下查询优化器的成本,实际上我们只需要检索一个页即可。Value表示 I/O 加载的数据页的页数

mysql> SHOW STATUS LIKE 'last_query_cost';+-----------------+----------+| Variable_name   | Value    |+-----------------+----------+| Last_query_cost | 1.000000 |+-----------------+----------+1 row in set (0.01 sec)

②我们扩大下查询范围,student_id> 199900的学生记录呢?运行时间 0.01s,这时我们大概需要进行 232个页的查询

mysql> SELECT * FROM student_info WHERE student_id > 199900;+--------+------------+--------+-----------+----------+---------------------+| id     | student_id | name   | course_id | class_id | create_time         |+--------+------------+--------+-----------+----------+---------------------+//...| 523982 |     200000 | vcaUvw |     10010 |    10173 | 2022-08-08 22:32:31 |+--------+------------+--------+-----------+----------+---------------------+516 rows in set (0.01 sec)mysql> SHOW STATUS LIKE 'last_query_cost';+-----------------+------------+| Variable_name   | Value      |+-----------------+------------+| Last_query_cost | 232.459000 |+-----------------+------------+1 row in set (0.00 sec)

③我们再次扩大范围,假若我们想要查询 student_id > 199000的学生记录呢?运行时间 0.02s,这时我们大概需要进行 2279个页的查询

mysql> SELECT * FROM student_info WHERE student_id > 199000;//...5065 rows in set (0.02 sec)mysql> SHOW STATUS LIKE 'last_query_cost';+-----------------+-------------+| Variable_name   | Value       |+-----------------+-------------+| Last_query_cost | 2279.509000 |+-----------------+-------------+1 row in set (0.00 sec)

不知道大家有没有发现,上面的查询页的数量是刚才的 10倍,但是查询的效率并没有明显的变化,就是因为采用了顺序读取的方式将页面一次性加载到缓冲池中,然后再进行查找。虽然页数量(last_query_cost)增加了不少,但是通过缓冲池的机制,并没有增加多少查询时间。

**使用场景:**查询 last_query_cost 对于比较开销是非常有用的,特别是我们有好几种查询方式可选的时候

🎈 SQL查询是一个动态的过程,从页加载的角度,我们可以得到以下两点结论:

  1. 位置决定效率:如果页就在数据库缓冲池中,那么效率是最高的,否则还需要从内存或者磁盘中进行读取,当然针对单个页的读取来说,如果页存在于内存中,会比在磁盘中读取效率高很多。即 数据库缓冲池>内存>磁盘
  2. 批量决定效率:如果我们从磁盘中单一页进行随机读,那么效率是很低的(差不多10ms),而采用顺序读取的方式,批量对页进行读取,平均一页的读取效率就会提升很多,甚至要快于单个页面在内存中的随机读取。即顺序读取>大于随机读取

所以说,遇到 I/O 并不用担心,方法找对了,效率还是很高的。我们首先要考虑数据存放的位置,如果是经常使用的数据就要尽量放到缓冲池中,其次我们可以充分利用磁盘的吞吐能力,一次性批量读取数据,这样单个页的读取效率也就得到了提升。

注:缓冲池和查询缓存并不是一个东西

image-20220811155538530

4.1 开启慢查询日志

1. 开启 slow_query_log

查看慢查询日志是否开启,以及日志的位置

mysql> show variables like '%slow_query_log%';+---------------------+-----------------------------------+| Variable_name       | Value |+---------------------+-----------------------------------+| slow_query_log      | OFF   || slow_query_log_file | /var/lib/mysql/hadoop102-slow.log |+---------------------+-----------------------------------+2 rows in set (0.03 sec)

修改慢查询日志状态为开启,注意这里要加 global,因为它是全局系统变量,否则会报错。

mysql> set global slow_query_log='ON';Query OK, 0 rows affected (0.02 sec)

再查看

mysql> show variables like '%slow_query_log%';+---------------------+-----------------------------------+| Variable_name       | Value |+---------------------+-----------------------------------+| slow_query_log      | ON    || slow_query_log_file | /var/lib/mysql/hadoop102-slow.log |+---------------------+-----------------------------------+2 rows in set (0.01 sec)

2. 修改long_query_time阈值

接下来我们来看下慢查询的时间阈值设置,使用如下命令

mysql> show variables like '%long_query_time%';+-----------------+-----------+| Variable_name   | Value     |+-----------------+-----------+| long_query_time | 10.000000 |+-----------------+-----------+1 row in set (0.00 sec)

这里如果我们想把时间缩短,比如设置成1秒,可以这样设置:

# 测试发现:设置global的方式对当前session的long_query_time失效。对新连接的客户端有效,所以可以一并执行下列语句mysql> set global long_query_time = 1;Query OK, 0 rows affected (0.00 sec)mysql> set long_query_time = 1;Query OK, 0 rows affected (0.00 sec)

再查看

mysql> show global variables like '%long_query_time%';+-----------------+----------+| Variable_name   | Value    |+-----------------+----------+| long_query_time | 1.000000 |+-----------------+----------+1 row in set, 1 warning (0.00 sec)

image-20220811165316520

4.2 案例演示

步骤一、建表

CREATE TABLE `student` (    `id` INT(11) NOT NULL AUTO_INCREMENT,    `stuno` INT NOT NULL ,    `name` VARCHAR(20) DEFAULT NULL,    `age` INT(3) DEFAULT NULL,    `classId` INT(11) DEFAULT NULL,    PRIMARY KEY (`id`)) ENGINE=INNODB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;

步骤二、 设置参数 log_bin_trust_function_creators

创建函数,假如报错

This function has none of DETERMINISTIC......

命令开启:允许创建函数设置:

set global log_bin_trust_function_creators=1;   # 不加global只是当前窗口有效

步骤三、创建函数

随机产生字符串:(同上一章)

DELIMITER //CREATE FUNCTION rand_string(n INT)RETURNS VARCHAR(255) #该函数会返回一个字符串BEGINDECLARE chars_str VARCHAR(100) DEFAULT'abcdefghijklmnopqrstuvwxyzABCDEFJHIJKLMNOPQRSTUVWXYZ';DECLARE return_str VARCHAR(255) DEFAULT '';DECLARE i INT DEFAULT 0;WHILE i < n DO   SET return_str =CONCAT(return_str,SUBSTRING(chars_str,FLOOR(1+RAND()*52),1));   SET i = i + 1;  END WHILE;  RETURN return_str;END //DELIMITER ;#测试SELECT rand_string(10);

产生随机数值:(同上一章)

DELIMITER //CREATE FUNCTION rand_num (from_num INT ,to_num INT) RETURNS INT(11)BEGIN DECLARE i INT DEFAULT 0; SET i = FLOOR(from_num +RAND()*(to_num - from_num+1))  ;RETURN i; END //DELIMITER ;#测试:SELECT rand_num(10,100);

步骤四、创建存储过程

DELIMITER //CREATE PROCEDURE insert_stu1(  START INT , max_num INT )BEGIN DECLARE i INT DEFAULT 0; SET autocommit = 0;   #设置手动提交事务REPEAT  #循环SET i = i + 1;  #赋值INSERT INTO student (stuno, NAME ,age ,classId ) VALUES((START+i),rand_string(6),rand_num(10,100),rand_num(10,1000)); UNTIL i = max_num END REPEAT; COMMIT;  #提交事务END //DELIMITER ;

步骤五、调用存储过程

#调用刚刚写好的函数, 4000000条记录,从100001号开始mysql> CALL insert_stu1(100001,4000000);Query OK, 0 rows affected (10 min 47.03 sec)

注意,这个时间会比较长,请耐心等待几分钟哟。结束后可以查询下是不是插入成功了。

mysql> select count(*) from student;+----------+| count(*) |+----------+|  4000000 |+----------+1 row in set (0.82 sec)

4.3 测试及说明

1. 执行一下下面的查询操作,进行慢查询语句的测试

# 注意:此时long_query_time已经设置为1了哦~mysql> SELECT * FROM student WHERE stuno = 3455655;+---------+---------+--------+------+---------+| id      | stuno   | name   | age  | classId |+---------+---------+--------+------+---------+| 3355654 | 3455655 | ZfCwDz |   76 |     228 |+---------+---------+--------+------+---------+1 row in set (1.03 sec)mysql> SELECT * FROM student WHERE name = 'ZfCwDz';+---------+---------+--------+------+---------+| id      | stuno   | name   | age  | classId |+---------+---------+--------+------+---------+|   32843 |  132844 | zfcWDZ |   32 |     304 ||  889126 |  989127 | ZfCwDz |   77 |     249 || 2015535 | 2115536 | zfcWDZ |   36 |     459 || 3176527 | 3276528 | ZFcwdZ |   81 |     941 || 3355654 | 3455655 | ZfCwDz |   76 |     228 |+---------+---------+--------+------+---------+5 rows in set (1.09 sec)

从上面的结果可以看出来,查询学生编号合和姓名花费时间 都在1s以上。已经达到了秒的数量级,说明目前查询效率是非常低的,下面我们分析一下原因

2. 先查看下慢查询的记录

mysql> show status like 'slow_queries';+---------------+-------+| Variable_name | Value |+---------------+-------+| Slow_queries  | 2     |+---------------+-------+1 row in set (0.01 sec)

🎯补充说明:

在Mysql中,除了上述变量,控制慢查询日志的还有另外一个变量 min_examined_row_limit 。这个变量的意思是,查询扫描过的最少记录数。这个变量和查询执行时间,共同组成了判别一个查询是否慢查询的条件。如果查询扫描过的记录数大于等于这个变量的值,并且查询执行时间超过 long_query_time 的值,那么这个查询就被记录到慢查询日志中。反之,则不被记录到慢查询日志中。另外,min_examined_row_limit 默认是 0,我们也一般不会去修改它。

mysql> SHOW VARIABLES like 'min%';+------------------------+-------+| Variable_name          | Value |+------------------------+-------+| min_examined_row_limit | 0     |+------------------------+-------+1 row in set (0.02 sec)

当这个值为默认值0时,与 long_query_time=10合在一起,表示只要查询的执行时间超过10秒钟,哪怕一个记录也没有扫描过,都要被记录到慢查询日志中。你也可以根据需要,通过修改"my.ini"文件,来修改查询时长,或者通过SET指令,用SQL语句修改min_examined_row_limit 的值。

4.4 慢查询日志分析工具:Mysqldumpslow

在生产环境中,如果要手工分析日志,查找、分析 SQL,显然是个体力活,MySQL 提供了日志分析工具 mysqldumpslow

📑 注意:
1.该工具并不是 MySQL 内置的,不要在 MySQL 下执行,可以直接在根目录或者其他位置执行
2.该工具只有 Linux 下才是开箱可用的,实际上生产中mysql数据库一般也是部署在linux环境中的。如果您是windows环境下,可以参考博客https://www.cnblogs.com/-mrl/p/15770811.html。

通过 mysqldumpslow 可以查看慢查询日志帮助

mysqldumpslow --help

image-20220812155219680

mysqldumpslow 命令的具体参数如下:

接下来我们可以找到慢查询日志的位置

image-20220812160221292

举例:我们想要按照查询时间排序,查看前五条 SQL 语句,这样写即可:

[root@hadoop102 mysql]# mysqldumpslow -s t -t 5 /var/lib/mysql/hadoop102-slow.log Reading mysql slow query log from /var/lib/mysql/hadoop102-slow.logCount: 1  Time=283.29s (283s)  Lock=0.00s (0s)  Rows=0.0 (0), root[root]@hadoop102  CALL insert_stu1(N,N)Count: 1  Time=1.09s (1s)  Lock=0.00s (0s)  Rows=5.0 (5), root[root]@localhost  SELECT * FROM student WHERE name = 'S'Count: 1  Time=1.03s (1s)  Lock=0.00s (0s)  Rows=1.0 (1), root[root]@localhost  SELECT * FROM student WHERE stuno = NDied at /usr/bin/mysqldumpslow line 162, <> chunk 3.

可以看到上面 sql 中具体的数值类都被N代替,字符串都被使用 S 代替,如果想要显示真实的数据,可以加上参数 -a

[root@hadoop102 mysql]# mysqldumpslow -a -s t -t 5 /var/lib/mysql/hadoop102-slow.log Reading mysql slow query log from /var/lib/mysql/hadoop102-slow.logCount: 1  Time=283.29s (283s)  Lock=0.00s (0s)  Rows=0.0 (0), root[root]@hadoop102  CALL insert_stu1(100001,4000000)Count: 1  Time=1.09s (1s)  Lock=0.00s (0s)  Rows=5.0 (5), root[root]@localhost  SELECT * FROM student WHERE name = 'ZfCwDz'Count: 1  Time=1.03s (1s)  Lock=0.00s (0s)  Rows=1.0 (1), root[root]@localhost  SELECT * FROM student WHERE stuno = 3455655Died at /usr/bin/mysqldumpslow line 162, <> chunk 3.

最后罗列下工作中常用的一些查询:

#得到返回记录集最多的10个SQLmysqldumpslow -s r -t 10 /var/lib/mysql/atguigu-slow.log#得到访问次数最多的10个SQLmysqldumpslow -s c -t 10 /var/lib/mysql/atguigu-slow.log#得到按照时间排序的前10条里面含有左连接的查询语句mysqldumpslow -s t -t 10 -g "left join" /var/lib/mysql/atguigu-slow.log#另外建议在使用这些命令时结合 | 和more 使用 ,否则有可能出现爆屏情况mysqldumpslow -s r -t 10 /var/lib/mysql/atguigu-slow.log | more

4.5 关闭慢查询日志

MySQL 服务器停止慢查询日志功能有两种方法:

方式一:永久性方式

修改my.cnf或my.ini文件,把【mysqld】组下的slow_query_log值设置为OFF,修改保存后,再重启MySQL服务,即可生效。

#配置文件[mysqld]slow_query_log=OFF

或者,把slow_query_log一项注释掉 或 删除

[mysqld]#slow_query_log =OFF

重启MySQL服务,执行如下语句查询慢日志功能。

SHOW VARIABLES LIKE '%slow%';  #查询慢查询日志所在目录SHOW VARIABLES LIKE '%long_query_time%';  #查询超时时长

可以看到,MySQL系统中的慢查询日志是关闭的。

方式二:临时性方式

使用 SET 语句来设置。
(1)停止 MySQL 慢查询日志功能,具体 SQL 语句如下。

SET GLOBAL slow_query_log=off;

(2)重启MySQL服务,使用 SHOW 语句查询慢查询日志功能信息,具体演示如下

[root@hadoop102 mysql]# systemctl restart mysqld;[root@hadoop102 mysql]# mysql -hlocalhost -P3306 -uroot -pEnter password: Welcome to the MySQL monitor.  Commands end with ; or \g.Your MySQL connection id is 10Server version: 8.0.25 MySQL Community Server - GPLCopyright (c) 2000, 2021, Oracle and/or its affiliates.mysql> SHOW VARIABLES LIKE '%slow%';+---------------------------+-----------------------------------+| Variable_name             | Value |+---------------------------+-----------------------------------+| log_slow_admin_statements | OFF   || log_slow_extra            | OFF   || log_slow_slave_statements | OFF   || slow_launch_time          | 2     || slow_query_log            | OFF  #慢查询日志已关闭               || slow_query_log_file       | /var/lib/mysql/hadoop102-slow.log |+---------------------------+-----------------------------------+6 rows in set (0.00 sec)mysql> SHOW VARIABLES LIKE '%long_query_time%';+-----------------+-----------+| Variable_name   | Value     |+-----------------+-----------+| long_query_time | 10.000000 | #已恢复至默认的 10s+-----------------+-----------+1 row in set (0.01 sec)

4.6 删除与恢复慢查询日志

使用SHOW语句显示慢查询日志信息,具体SQL语句如下:

mysql> SHOW VARIABLES LIKE '%slow_query_log%';+---------------------+-----------------------------------+| Variable_name       | Value |+---------------------+-----------------------------------+| slow_query_log      | ON    || slow_query_log_file | /var/lib/mysql/hadoop102-slow.log |+---------------------+-----------------------------------+2 rows in set (0.00 sec)

调优结束可以及时删除慢查询日志节省磁盘空间哟,当然手工删除也是可以的

image-20220812163728793

如果误删了,而且还没有了备份,可以使用下面的命令来重新恢复生成哟,执行完毕后会在数据目录下重新生成查询日志文件

#先要打开慢查询日志SET GLOBAL slow_query_log=ON;#恢复慢查询日志mysqladmin -uroot -p flush-logs slow

提示

慢查询日志都是使用mysqladmin -uroot -p flush-logs slow 命令来删除重建的。使用时一定要注意,一旦执行了这个命令,慢查询日志都只存在于新的日志文件中,如果需要旧的查询日志,就必须事先备份。

image-20220812175708623

mysql> show variables like 'profiling';+---------------+-------+| Variable_name | Value |+---------------+-------+| profiling     | OFF   | #当前是关闭状态+---------------+-------+1 row in set (0.01 sec)mysql> set profiling = 'ON';#开启Query OK, 0 rows affected, 1 warning (0.00 sec)

然后执行相关的查询语句。接着看下当前会话下有哪些profiles

mysql> SELECT * FROM student WHERE stuno = 3455655;//...mysql> SELECT * FROM student WHERE name = 'ZfCwDz';//...mysql> show profiles;+----------+------------+---------------------------------------------+| Query_ID | Duration   | Query           |+----------+------------+---------------------------------------------+|        1 | 0.00133475 | show variables like 'profiling'             ||        2 | 0.00021050 | SELECT * FROM student WHERE stuno = 3455655 ||        3 | 0.00053600 | SELECT DATABASE()                           ||        4 | 0.01693325 | show databases  ||        5 | 0.00375125 | show tables     ||        6 | 1.75597875 | SELECT * FROM student WHERE stuno = 3455655 ||        7 | 1.11115150 | SELECT * FROM student WHERE name = 'ZfCwDz' |+----------+------------+---------------------------------------------+7 rows in set, 1 warning (0.00 sec)

你能看到当前会话一共有7个查询,如果我们想要查看最近一次查询的开销,可以使用

show profile;

image-20220812180852535

我们也可以查看指定的Query ID的开销,只需要后面跟上 for num。也可以查看不同部分的开销,比如CPU、block.io等

 show profile cpu,block io for query 7;

image-20220812181159314

通过如果发现上一条 sql 慢的原因在于执行慢(executing字段耗时多),就可以接着用 Explain 进行分析具体的 sql 语句。等后面我们为其建立索引,就可以大大提高效率了

🔊 show profile的常用查询参数:

① ALL:显示所有的开销信息。
② BLOCK IO:显示块 IO 开销。
③ CONTEXT SWITCHES:上下文切换开销。
④ CPU:显示 CPU 开销信息。
⑤ IPC:显示发送和接收开销信息。
⑥ MEMORY:显示内存开销信息。
⑦ PAGE FAULTS:显示页面错误开销信息。
⑧ SOURCE:显示和 Source_function,Source_file,Source_line 相关的开销信息。
⑨ SWAPS:显示交换次数开销信息。

🎨 日常开发需要注意的结论:

Coverting Heap to MyISAM:查询结果太大,内存不够,正在往磁盘中迁移
Creating tmp table:创建临时表,先拷贝数据到临时表,用完再删除临时表
Coping to tmp table on disk:把内存中临时表复制到磁盘上,警惕!
locked

如果在 show profile 的查询结果中,出现了以上4条结果中的任何一条。则sql 语句需要优化

最后,还需要注意:

SHOW PROFILE 命令将被弃用,不过我们可以从 information_schema 中的 profiling 数据表进行查看

6.1 EXPLAIN 概述

image-20220812182818655

image-20220812183245510

3. 版本情况

注意:EXPLAIN 仅仅是查看执行计划,不会真实的执行 sql

6.2 基本语法

EXPLAIN 或 DESCRIBE语句的语法形式如下:

EXPLAIN SELECT select_options或者DESCRIBE SELECT select_options

如果我们想看看某个查询的执行计划的话,可以在具体的查询语句前边加一个EXPLAIN ,就像这样:

mysql> EXPLAIN SELECT 1;

image-20220812225914302

image-20220812225822122

EXPLAIN 语句输出的各个列的作用如下:

image-20220812225712460

在这里把它们都列出来只是为了描述一个轮廓,让大家有一个大致的印象。

6.3 数据准备

1. 建表

CREATE TABLE s1 (     id INT AUTO_INCREMENT,     key1 VARCHAR(100),     key2 INT,     key3 VARCHAR(100),     key_part1 VARCHAR(100),     key_part2 VARCHAR(100),     key_part3 VARCHAR(100),     common_field VARCHAR(100),      PRIMARY KEY (id),      INDEX idx_key1 (key1),      UNIQUE INDEX idx_key2 (key2),      INDEX idx_key3 (key3),      INDEX idx_key_part(key_part1, key_part2, key_part3)) ENGINE=INNODB CHARSET=utf8;
CREATE TABLE s2 (     id INT AUTO_INCREMENT,     key1 VARCHAR(100),     key2 INT,     key3 VARCHAR(100),     key_part1 VARCHAR(100),     key_part2 VARCHAR(100),     key_part3 VARCHAR(100),     common_field VARCHAR(100),      PRIMARY KEY (id),      INDEX idx_key1 (key1),      UNIQUE INDEX idx_key2 (key2),      INDEX idx_key3 (key3),      INDEX idx_key_part(key_part1, key_part2, key_part3)) ENGINE=INNODB CHARSET=utf8;

注:建两个表方便联合查询

2. 创建存储函数

DELIMITER CREATE FUNCTION rand_string1(n INT)    RETURNS VARCHAR(255) #该函数会返回一个字符串BEGINDECLARE chars_str VARCHAR(100) DEFAULT 'abcdefghijklmnopqrstuvwxyzABCDEFJHIJKLMNOPQRSTUVWXYZ';    DECLARE return_str VARCHAR(255) DEFAULT '';    DECLARE i INT DEFAULT 0;    WHILE i < n DO        SET return_str =CONCAT(return_str,SUBSTRING(chars_str,FLOOR(1+RAND()*52),1));        SET i = i + 1;    END WHILE;    RETURN return_str;END DELIMITER ;

创建函数,假如报错,需设置参数 log_bin_trust_function_creators,允许创建函数设置

set global log_bin_trust_function_creators=1;   # 不加global只是当前窗口有效。

3. 创建存储过程

创建往 s1 表中插入数据的存储过程:

DELIMITER //CREATE PROCEDURE insert_s1 (IN min_num INT (10),IN max_num INT (10))BEGIN    DECLARE i INT DEFAULT 0;    SET autocommit = 0;    REPEAT    SET i = i + 1;    INSERT INTO s1 VALUES(     (min_num + i),     rand_string1(6),     (min_num + 30 * i + 5),     rand_string1(6),     rand_string1(10),     rand_string1(5),     rand_string1(10),     rand_string1(10));    UNTIL i = max_num    END REPEAT;    COMMIT;END //DELIMITER ;

创建往 s2 表中插入数据的存储过程:

DELIMITER //CREATE PROCEDURE insert_s2 (IN min_num INT (10),IN max_num INT (10))BEGIN    DECLARE i INT DEFAULT 0;    SET autocommit = 0;    REPEAT    SET i = i + 1;    INSERT INTO s2 VALUES((min_num + i),        rand_string1(6),        (min_num + 30 * i + 5),        rand_string1(6),        rand_string1(10),        rand_string1(5),        rand_string1(10),        rand_string1(10));    UNTIL i = max_num    END REPEAT;    COMMIT;END //DELIMITER ;

4. 调用存储过程

s1 表数据的添加:加入 1 万条记录:

CALL insert_s1(10001,10000);

s2 表数据的添加:加入 1 万条记录:

CALL insert_s2(10001,10000);

6.4 EXPLAIN 各列作用

为了让大家有比较好的体验,我们调整了下EXPLAIN输出列的顺序。

6.4.1 table

不论我们的查询语句有多复杂,里边儿包含了多少个表 ,到最后也是需要对每个表进行单表访问的,所以 MySQL 规定 EXPLAIN 语句输出的每条记录都对应着某个单表的访问方法,该条记录的 table 列代表着该表的表名(有时不是真实的表名字,可能是简称)。

EXPLAIN SELECT * FROM s1 INNER JOIN s2;

如下图,一张表对应一个记录

image-20220812235854193

注:临时表也会有对应的记录,比如我们使用UNION时就会出现临时表

6.4.2 id

例1:下面的查询结果,两个记录似乎id都是1.这是为什么呢?

image-20220813001639812

实际上,在查询语句中每出现一个SELECT关键字,MySQL就会为它分配一个唯一的id ,代表着一次查询。这个id 就是 EXPLAIN语句的第一列。

例2:下面的查询中只有一个SELECT,所以EXPLAIN的结果中也就只有一条id为 1 的记录喽~

image-20220813001157042

例3:下面的查询有两个SELECT,所以EXPLAIN的结果中 会有两条记录,且id分别就是1和2喽~ 。其中 s1被称为驱动表,s2被称为 被驱动表

image-20220813005516485

例4:下面这条SQL有一个坑,请注意!!!

EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key2 FROM s2 WHERE common_field = 'a');

两个记录的 id 都是 1,小小的眼睛是否充满了大大的疑惑?

image-20220813105713820

这是因为优化器会对上面的 sql 语句进行优化,将其转换为多表连接,而不是子查询。因为子查询其实是一种嵌套查询的情况,其时间复杂度是 O(n^m),其中 m 是嵌套的层数,而多表查询的时间复杂度是 O(n*m)

例5:再看看 Union 联合查询的情况。

EXPLAIN SELECT * FROM s1 UNION SELECT * FROM s2;

结果是这样,竟然会出现三张表~ Amazing!

image-20220813110019454

这是因为 Union 是取表的并集,需要建临时表进行去重,因此会有三条记录。可以看到第三条记录的 Extra 就标识了它是一张临时表哦。临时表 id 是 Null

例6:再看看 Union ALL:

EXPLAIN SELECT * FROM s1  UNION ALL SELECT * FROM s2;

产生两条记录,因为它不会去重~

image-20220813110210174

💌小结

  1. id如果相同,可以认为是一组,从上往下顺序执行
  2. 在所有组中,id值越大,优先级越高,越先执行
  3. 关注点:id号每个号码,表示一趟独立的查询, 一个sql的查询趟数越少越好

6.4.3 select_type

image-20220813114910520

image-20220813115146750

①:查询语句中不包含UNION或者子查询的查询都算作是SIMPLE类型

image-20220813133415051

再看下连接查询,可以看到 连接查询也算是SIMPLE类型

image-20220813133509606

②:Union 联合查询。其左边的查询是 Primary,右边的查询类型是 Union,去重的临时表查询类型是: Union Result

image-20220813133840236

image-20220813134118038

③:不会被优化成多表连接的子查询

如果包含子查询的查询语句不能够转为多表连接的形式(也就是不会被优化器进行自动的优化),并且该子查询是不相关的子查询

该子查询的第一个SELECT关键字代表的那个查询的select_type就是SUBQUERY。也就是外层查询是 Primary,内层查询是 SUBQUERY

image-20220813134931380

如果子查询不能被转换为多表连接的形式,并且该子查询是相关子查询。

比如下面的查询在内部子查询使用了外部的表。则该子查询的第一个SELECT关键字代表的那个查询的select_type就是DEPENDENT SUBQUERY。 外层查询是Primary,内层查询是DEPENDENT SUBQUERY

image-20220813135056579

需要注意的是 DEPENDENT SUBQUERY 的查询语句可能会被执行多次,因为内层查询依赖于外层的查询,因此可能会是外层传一个值,内层就执行一次的模式。

子查询需要执行多次,即采用循环的方式,先从外部查询开始,每次都传入子查询进行查询,然后再将结果反馈给外部,这种嵌套的执行方式就称为相关子查询。

子查询从数据表中查询了数据结果,如果这个数据结果只执行一次,然后这个数据结果作为主查询的条 件进行执行,那么这样的子查询叫做不相关子查询。

④:包含UNION或者UNION ALL的子查询

在包含 Union或者 Union All 的子查询 sql 中,如果各个小查询都依赖于外查询,那么除了最左边的小查询外,各个小查询的类型都是 DEPENDENT UNION

image-20220813145005814

外查询是 Primary,最左边的子查询是 DEPENDENT SUBQUERY,后面的子查询是 DEPENDENT UNION,临时去重表的类型是 Union Result。这里大家可能要困惑,第一个子查询中也没有看到依赖 s1 啊。这其实也是优化器会在执行时进行优化,将 IN 改成 Exist,并且把外部的表移到内部去。这里我们了解就行,以后会有文章给大家介绍优化器的。

⑤:关于派生表的子查询

对于包含派生表的查询,该派生表对应的子查询的select_type就是DERIVED

image-20220813145348553

⑥:子查询的物化后与外层连接查询

当优化器在执行子查询时选择把子查询优化成为一张物化表,与外层查询进行连接查询时。

image-20220813150059254

从下往上看,子查询的查询类型是 MATERIALIZED;物化过程是基于 id 为 2 的查询结果表进行的,其 table 是 subquery 2,查询类型是 SIMPLE,而外层也相当于是与固定的直接值进行查询,其类型也是 SIMPLE

上面的介绍都是一些基本的情况,还没有真正的介绍与索引相关的情况哦。觉得是不是晕晕的了,我们用一个表格进行下总结吧

6.4.4 partitions (可略)

代表分区表中的命中情况,非分区表,该项为 NULL。一般情况下我们的查询语句的执行计划的partitions 列的值都是NULL

官方文档:https://dev.mysql.com/doc/refman/8.0/en/alter-table-partition-operations.html

如果想详细了解,可以如下方式测试。创建分区表:

-- 创建分区表,-- 按照id分区,id<100 p0分区,其他p1分区CREATE TABLE user_partitions (id INT auto_increment,    NAME VARCHAR(12),PRIMARY KEY(id))    PARTITION BY RANGE(id)(    PARTITION p0 VALUES less than(100),    PARTITION p1 VALUES less than MAXVALUE );

查询 id 大于200(200>100,p1分区)的记录,查看执行计划,partitions 是 p1,符合我们的分区规则

image-20220813151056438

6.4.5 type ☆

image-20220813152916930

完整的访问方法如下: system consteq_ref ref fulltextref_or_nullindex_mergeunique_subqueryindex_subqueryrangeindexALL

我们详细解释一下:

1️⃣system

当表中只有一条记录,并且该表中存储引擎统计数据是精确的,比如 MYISAM,Memory,那么其访问方法就是System。这种方式几乎是性能最高的,当然我们几乎用不上。

CREATE TABLE t(i int) Engine=MyISAM;#创建表INSERT INTO t VALUES(1);# 插入第一条记录EXPLAIN SELECT * FROM t;# 查看性能

image-20220813161234015
但凡我们再插入一条数据,其访问方式就变成了性能最差的全表扫描 ALL

image-20220813161324653

如果存储引擎是InnoDB,即使只有一条数据,其访问方式也是ALL,这是因为 InnnoDB 访问数据不是精确的

image-20220813161518641

2️⃣Const

当我们根据主键或者唯一的二级索引,与常数进行等值匹配时,对单表的访问方法就是 const。这个访问方式的效率低于 system,但也是很高效的。

比如对主键与常数匹配,进行等值查询

EXPLAIN SELECT * FROM s1 WHERE id = 10005;

image-20220813161700890

比如对Unique标识的唯一二级索引key2与常数匹配,进行等值查询。

EXPLAIN SELECT * FROM s1 WHERE key2 = 10066;

image-20220813163815258

当我们把where后面的关键字改成key3 普通索引时,由于key3的字段值是可重复的。type类型就变成了 All,全表查询

image-20220813164458327

注意:此时可能有细心的小伙伴可能注意到我们的key3不是也有索引idx_key3,性能再查也不至于全表查询吧~ 但是忘记了一个细节,key3本身是varchar类型的, key3 = 10066会进行一个隐式类型转换,从而会导致 索引失效,我们也可以看到 key列对应的为空。

当修改成key3 = 10066后,结果如下图:

image-20220813172536786

3️⃣eq_ref

再进行连接查询时,如果被驱动表是通过主键或者唯一二级索引等值匹配的方式进行查询的,那么被驱动表的访问方式是 eq_ref。这也是一种性能很不错的方式。

EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.id = s2.id;

上面连接查询语句,对于驱动表来说,就是对s1全表进行扫描,找到符合条件的数据,因此其typeAll,对被驱动表来说,相于直接访问驱动表查询到的数据进行等值查询,因此其访问方式是eq_refimage-20220813173413307

4️⃣ref

当使用普通的二级索引与常量进行等值匹配时,type 是 ref

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';

image-20220813173618072

下面考考你。以下 sql 的引用类型是什么呢?

EXPLAIN SELECT * FROM s1 WHERE key3 = 10066;

看看答案。你是不是猜错了。是 All。这是因为 key3 的字段 varchar 类型,但是我们这里常量值是整形,因此需要使用函数进行隐式的类型转换,一旦使用函数,索引就失效了,因此访问类型变成了全表扫描 All

image-20220813173814439

当我们常量使用对应的类型,就是期望的ref访问类型了

image-20220813173912091

5️⃣ref_or_null

当使用普通的二级索引进行等值匹配时,当索引值可以是 Null 时,type 是 ref_or_null

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' OR key1 IS NULL;

image-20220813174556607

6️⃣index_merge

当进行单表访问时,如果多个查询字段分别建立了单列索引,使用 OR 连接,其访问类型是 index_merge。同时还可以看到 key 这一字段,是使用了多个索引

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' OR key3 = 'a';

image-20220813174718756

猜猜下面 sql 的引用类型

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' AND key3 = 'a';

猜对了吗?答案是 ref,这是因为用 AND 连接两个查询时,实际上只使用了 key1 的索引。

image-20220813174912860

7️⃣unique_subquery

针对一些包含 IN 的 子查询的查询语句中,如果优化器决定将 IN 子查询优化为 EXIST 子查询,而且子查询可以使用主键进行等值匹配的话,那么该子查询执行计划的 type 就是 unique_subquery

EXPLAIN SELECT * FROM s1 WHERE key2 IN (SELECT id FROM s2 where s1.key1 = s2.key1) OR key3 = 'a';

image-20220813182322867

8️⃣range

如果使用索引获取某些范围区间的记录,那么就可能使用到range访问方法

EXPLAIN SELECT * FROM s1 WHERE key1 IN ('a', 'b', 'c');EXPLAIN SELECT * FROM s1 WHERE key1 > 'a' AND key1 < 'b';

image-20220813182743852

9️⃣index

当我们可以使用索引覆盖,但是需要扫描的全部的索引记录时,该表的访问方式就是 index。索引覆盖后面文章介绍优化器时会详细介绍,为了便于大家理解,先简单介绍如下。比如下面 sql 语句中,key_part2 ,key_part2 都属于联合索引 idx_key_part(key_part1, key_part2, key_part3) 的一部分,在查找数据时可以用上这个联合索引,而不用进行回表操作,这种情况即索引覆盖

EXPLAIN SELECT key_part2 FROM s1 WHERE key_part2 = 'a';

image-20220813183057913

1️⃣0️⃣ALL

最熟悉的全表扫描 ALL

EXPLAIN SELECT * FROM s1;

image-20220813183153914

❤温馨提示:这里很多小伙伴会觉得记不住,其实您可以收藏这篇博客,执行 EXPLAIN 时对应结果,反向查找博文对应内容,毕竟咱们只需要能够读懂性能分析的结果

小结

结果值从最好到最坏依次是: system > const > eq_ref > ref > fulltext > ref_or_null > index_merge > unique_subquery > index_subquery > range > index > ALL 其中比较重要的几个提取出来(见绿色部分)

SQL 性能优化的目标:至少要达到 range 级别,要求是 ref 级别,最好是 consts 级别(阿里巴巴开发手册要求)

6.4.6 possible_keys 和 key

image-20220813225540107

EXPLAIN SELECT * FROM s1 WHERE key1 > 'z' AND key3 = 'a';

image-20220813225634984

对应优化器来说,可以选择的 possible_keys 越少越好,因为选项越多,进行过滤花的时间也就对应更多。另外,优化器会对各个索引进行查询的效率进行评估,以此来选择实际使用的 key。而且由于优化器会对 sql 进行优化,完全可能会出现 possible_keys 是 null,但是 key 不为 null 的情况

6.4.7 key_len ☆

实际使用的索引的长度,单位是字节。可以帮助你检查是否充分利用了索引,主要针对联合索引具有一定的参考,对同一索引来说,key_len 值越大越好(与自己比较,后面将解释)。

① 下面SQL执行结果是 4,这个结果怎么算出来的呢?

image-20220813230641143

这是因为使用的是主键 id 作为索引,其类型是 int,占 4 个字节

② 再来猜猜下面的 key_len 是多少~

EXPLAIN SELECT * FROM s1 WHERE key2 = 10126;

什么?你猜的是 4,而答案是 5~

image-20220813230839120

这是因为虽然 key2 也是 int 类型,但是它被 unique 修饰,并没有标识非空(而主键都是非空的),因此加上空值标记,一共是5字节

③ 字符类型的索引长度为多少呢

 EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';

image-20220813231154852

答案是 303,因为类型是 varchar(100),100 个字符,utf-8 每个字符占 3 个字节,共 300 个字节,加上变长列表 2 个字节与一个空值标识占一个字节,共 303 字节。

④ 看看联合索引的情况

EXPLAIN SELECT * FROM s1 WHERE key_part1 = 'a';

image-20220813231414814

EXPLAIN SELECT * FROM s1 WHERE key_part1 = 'a' AND key_part2 = 'b';

image-20220813231505907

这个查询的 key-len 比上面的查询大,性能就比上面的好,怎么理解呢?其实只要你看过我之前介绍B+树的文章就很容易理解了。因为在目录页我除了考虑 key_part1 ,还会考虑 key_part2,定位到的数据就更加精准,范围更小,需要加载 I/O 的数据页数量就会更少,这样是不是性能就比较好啊~

EXPLAIN SELECT * FROM s1 WHERE key_part3 = 'a';

image-20220813231734678

是空哦,因为都不会使用到索引,这就是我们一直在提的最左前缀原则,后面会详细介绍的。

📚练习:key_len的长度计算公式:

6.4.8 ref

当索引列进行等值查询时,与索引列匹配的对象信息。

① 比如只是一个常数或者是某个列,其 refconst

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';

image-20220814103925203

② 当进行多表连接查询时,对被驱动表s2执行的查询引用了atguigudb1.s1.id字段进行等值查询

EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.id = s2.id;

image-20220814104029459

③ 当连接条件使用函数时,其 ref 就是 func

 EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s2.key1 = UPPER(s1.key1);

image-20220814104217790

6.4.9 rows ☆

① 预估的需要读取的记录条目数,条目数越小越好。这是因为值越小,加载I/O的页数就越少~

EXPLAIN SELECT * FROM s1 WHERE key1 > 'z';

image-20220814104350297

6.4.10 filtered

经过搜索条件后过滤剩下的记录所占的百分比百分比越高越好,比如同样 rows 是 40,如果 filter 是 100,则是从 40 条记录里进行查找,如果 filter 是 10,则是从 400 条记录里进行查找,相比较而言当然是前者的效率更高哦。

① 如果执行的是单表扫描,那么计算时需要估计除了对应搜索条件外的其他搜索条件满足的记录有多少条 晕了就看看下面的例子

EXPLAIN SELECT * FROM s1 WHERE key1 > 'z' AND common_field = 'a';

结果是 10,表示有 347 条记录满足 key1 > ‘z’ 的条件,这 347 条记录的 10% 满足 common_field = ‘a’ 条件。

image-20220814104530103

② 实际上,对于单表查询,这个字段没有太大的意义,我们更加关注连接查询时的 filtered 值,它决定了被驱动表要执行的次数。

EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.key1 = s2.key1 WHEREs1.common_field = 'a';

结果如下。在标明驱动表 s1 提供给被驱动表的记录数是 9895 条,其中 989.5 条满足过滤条件s1.key1 = s2.key1,那么被驱动表需要执行 990 次查询。

image-20220814104852338

filtered=(最终查询结果/rows列数据)*100%,越大表示过滤后的数据,越是最终结果。
相比较filtered越小,减少了数据再次过滤的性能

6.4.11 Extra ☆

顾名思义,Extra 列是用来说明一些额外信息的,包含不适合在其他列中显示但十分重要的额外信息。我们可以通过这些额外信息来更准确的理解MySQL到底将如何执行给定的查询语句。MySQL提供的额外信息有好几十个,我们就不一一介绍了,所以我们只挑比较重要的额外信息介绍给大家。

No tables used

当查询语句的没有FROM子句时将会提示该额外信息

EXPLAIN SELECT 1;

image-20220814111715918

Impossible WHERE

当查询条件永远不可能满足,查不到数据时会出现该信息。

EXPLAIN SELECT * FROM s1 WHERE 1 != 1;

image-20220814111830017

Using where

EXPLAIN SELECT * FROM s1 WHERE common_field = 'a';

image-20220814111940959

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a';

image-20220814112044015

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' AND common_field = 'a';

image-20220814112128725

No matching min/max row

当查询语句中有 MIN、MAX 等聚合函数,但是并没有符合 where 条件的搜索记录时,会提供额外信息 No matching min/max row(表中根本没有满足 where 条件的字句,找 min、max 没有意义)

EXPLAIN SELECT MIN(key1) FROM s1 WHERE key1 = 'abcdefg';

image-20220814112312678

Select tables optimized away

当查询语句中有 MIN、MAX 等聚合函数,有符合 where 条件的搜索记录时

EXPLAIN SELECT MIN(key1) FROM s1 WHERE key1 = 'oCUPss';

image-20220814112508271

Using index

在使用覆盖索引的情况提示。所谓覆盖索引,就是索引中覆盖了需要查询的所有字段,不需要再使用聚簇索引进行回表查找。比如下面的例子,使用 key1 作为查找条件,该字段建立了索引,B+ 树可以查找到 key1 字段和主键,因此下面只查找 key1 字段就不用进行回表操作,这是非常棒的情况。

EXPLAIN SELECT key1 FROM s1 WHERE key1 = 'a';

image-20220814112621332

Using index condition

搜索列中虽然出现了索引列,但是不能够使用索引,这种情况是比较坑的~

比如下面的查询虽然出现了索引列作为查询条件,但是还是需要进行回表查找,回表操作是一个随机 I/O,比较耗时。

EXPLAIN SELECT * FROM s1 WHERE key1 > 'z' AND key1 LIKE '%a';

image-20220814114314395

上面这种情况可以使用索引下推(可以通过配置项进行配置),使我们使用 WHERE key1 > ‘z’ 得到的结果先进行模糊匹配 key1 LIKE ‘%a’,然后再去回表,就可以减少回表的次数了。

Using join buffer

在连接查询中,当被驱动表不能够有效利用索引实现提升速度,数据库就使用缓存来尽可能提升一些性能。

EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.common_field = s2.common_field;

image-20220814115201430

Not exists

当我们使用左(外)连接时,如果WHERE子句中包含要求被驱动表的某个列等于NULL值的搜索条件,而且那个列又是不允许存储NULL值的,那么在该表的执行计划的Extra列就会提示Not exists额外信息

EXPLAIN SELECT * FROM s1 LEFT JOIN s2 ON s1.key1 = s2.key1 WHERE s2.id IS NULL;

image-20220814115302073

Using intersect(…) 、 Using union(…) 和 Using sort_union(…)

EXPLAIN SELECT * FROM s1 WHERE key1 = 'a' OR key3 = 'a';

image-20220814115726815

Zero limit

当我们的LIMIT子句的参数为0时,表示压根儿不打算从表中读出任何记录,将会提示该额外信息

EXPLAIN SELECT * FROM s1 LIMIT 0;

image-20220814115904221

Using filesort

很多情况下排序操作无法使用到索引,只能在内存中(记录较少的时候)或者磁盘中(记录较多的时候)进行排序,MySQL把这种在内存中或者磁盘上进行排序的方式统称为**文件排序**(英文名:filesort)。这种情况时比较悲壮的~

EXPLAIN SELECT * FROM s1 ORDER BY common_field LIMIT 10;

image-20220814120453672

Using temporary

在许多查询的执行过程中,MySQL可能会借助临时表来完成一些功能,比如去重、排序之类的,比如我们在执行许多包含DISTINCTGROUP BYUNION等子句的查询过程中,如果不能有效利用索引来完成查询,MySQL很有可能寻求通过建立内部的临时表来执行查询。如果查询中使用到了内部的临时表,在执行计划的Extra列将会显示Using temporary提示

EXPLAIN SELECT DISTINCT common_field FROM s1;EXPLAIN SELECT common_field, COUNT(*) AS amount FROM s1 GROUP BY common_field;

image-20220814121232140

执行计划中出现Using temporary并不是一个好的征兆,因为建立与维护临时表要付出很大成本的,所以我们最好能使用索引来替代掉使用临时表。比如:扫描指定的索引idx_key1即可

 EXPLAIN SELECT key1, COUNT(*) AS amount FROM s1 GROUP BY key1;

image-20220814121019942

6.4.12 小结

7.1 EXPLAIN 四种输出格式

这里谈谈EXPLAIN的输出格式。EXPLAIN可以输出四种格式: 传统格式 ,JSON格式, TREE格式 以及 可视化输出。用户可以根据需要选择适用于自己的格式。

7.1.1 传统格式

传统格式简单明了,输出是一个表格形式,概要说明查询计划。

EXPLAIN SELECT * FROM s1 INNER JOIN s2 ON s1.key1 = s2.key2 WHERE s1.common_field ='a';

image-20220814131829731

7.1.2 JSON 格式

第1种格式中介绍的EXPLAIN语句输出中缺少了一个衡量执行计划好坏的重要属性–成本。 而JSON格式是四种格式里面输出信息最详尽的格式,里面包含了执行的成本信息。

JSON格式:在EXPLAIN单词和真正的查询语句中间加上FORMAT=JSON

传统格式与json格式的各个字段存在如下表所示的对应关系(mysql5.7官方文档)。
image-20220814122734392

案例如下:

EXPLAIN FORMAT=JSON SELECT s1.key1, s2.key1 FROM s1 LEFT JOIN s2 ON s1.key1 = s2.key1 WHERE s2.common_field IS NOT NULL;

结果如下,可以看到 json 格式的信息量会更加丰富。尤其是成本信息,是用于衡量一个执行计划的好坏的重要指标

mysql> EXPLAIN FORMAT=JSON SELECT * FROM s1 INNER JOIN s2 ON s1.key1 = s2.key2 WHERE s1.common_field ='a'\G;*************************** 1. row ***************************EXPLAIN: {  "query_block": {    "select_id": 1,    "cost_info": {      "query_cost": "1360.07"    },    "nested_loop": [      {        "table": {          "table_name": "s1",          "access_type": "ALL",          "possible_keys": [            "idx_key1"          ],          "rows_examined_per_scan": 9895,          "rows_produced_per_join": 989,          "filtered": "10.00",          "cost_info": {            "read_cost": "914.80",            "eval_cost": "98.95",            "prefix_cost": "1013.75",            "data_read_per_join": "1M"          },          "used_columns": [            "id",            "key1",            "key2",            "key3",            "key_part1",            "key_part2",            "key_part3",            "common_field"          ],          "attached_condition": "((`atguigudb1`.`s1`.`common_field` = 'a') and (`atguigudb1`.`s1`.`key1` is not null))"        }      },      {        "table": {          "table_name": "s2",          "access_type": "eq_ref",          "possible_keys": [            "idx_key2"          ],          "key": "idx_key2",          "used_key_parts": [            "key2"          ],          "key_length": "5",          "ref": [            "atguigudb1.s1.key1"          ],          "rows_examined_per_scan": 1,          "rows_produced_per_join": 989,          "filtered": "100.00",          "index_condition": "(cast(`atguigudb1`.`s1`.`key1` as double) = cast(`atguigudb1`.`s2`.`key2` as double))",          "cost_info": {            "read_cost": "247.38",            "eval_cost": "98.95",            "prefix_cost": "1360.08",            "data_read_per_join": "1M"          },          "used_columns": [            "id",            "key1",            "key2",            "key3",            "key_part1",            "key_part2",            "key_part3",            "common_field"          ]        }      }    ]  }}1 row in set, 2 warnings (0.00 sec)

我们使用#后面跟随注释的形式为大家解释了 EXPLAIN FORMAT=JSON 语句的输出内容,但是大家有疑问 cost_info里边的成本看着怪怪的,它们是怎么计算出来的?

先看 s1 表的 "cost_info"部分:

"cost_info": {"read_cost": "914.80",    "eval_cost": "98.95",    "prefix_cost": "1013.75",    "data_read_per_join": "1M"}

💚 rows和filter都是我们前边介绍执行计划的输出列,在JSON格式的执行计划中,rows相当于rows_examined_per_scan,filtered名称不变

对于 s2 表的 “cost_info” 部分是这样的:

"cost_info": {"read_cost": "247.38",    "eval_cost": "98.95",    "prefix_cost": "1360.08",    "data_read_per_join": "1M"}

由于 s2 表是被驱动表,所以可能被读取多次,这里的 read_cost eval_cost 是访问多次 s2 表后累加起来的值,大家主要关注里边儿的 prefix_cost 的值代表的是整个连接查询预计的成本,也就是单次查询 s1 表和多次查询 s2 表后的成本的和,也就是:

247.38 + 98.95 + 1013.75 = 1360.08

7.1.3 TREE 格式

TREE 格式是 8.0.16 版本之后引入的新格式,主要根据查询的各个部分之间的关系和各部分的执行顺序 来描述如何查询。

mysql> EXPLAIN FORMAT=TREE SELECT * FROM s1 INNER JOIN s2 ON s1.key1 = s2.key2 WHERE s1.common_field ='a'\G;*************************** 1. row ***************************EXPLAIN: -> Nested loop inner join  (cost=1360.08 rows=990)    -> Filter: ((s1.common_field = 'a') and (s1.key1 is not null))  (cost=1013.75 rows=990)        -> Table scan on s1  (cost=1013.75 rows=9895)    -> Single-row index lookup on s2 using idx_key2 (key2=s1.key1), with index condition: (cast(s1.key1 as double) = cast(s2.key2 as double))  (cost=0.25 rows=1)1 row in set, 1 warning (0.00 sec)

7.1.4 可视化输出

可视化输出,可以通过 MySQL Workbench 可视化查看 MySQL 的执行计划。通过点击 Workbench 的放大镜图标,即可生成可视化的查询计划

上图按从左到右的连接顺序显示表。红色框表示 全表扫描 ,而绿色框表示使用索引查找对于每个表,显示使用的索引。还要注意的是,每个表格的框上方是每个表访问所发现的行数的估计值以及访问该表的成本

7.2 SHOW WARNINGS 的使用

可以显示数据库真正执行的 SQL ,因为有时候MySQL执行引擎会对我们的SQL进行优化~

① 先使用 Explain,我们写的 sql 按道理是使用 s1 作为驱动表,s2作为被驱动表

EXPLAIN SELECT s1.key1, s2.key1 FROM s1 LEFT JOIN s2 ON s1.key1 = s2.key1 WHERE s2.common_field IS NOT NULL;*

但是 执行结果把 s2 作为了驱动表,s1 作为了被驱动表
image-20220814133158223

紧接着使用SHOW WARNINGS ,原来执行引擎将 LEFT JOIN优化成了 INNER JOIN

mysql> SHOW WARNINGS\G;*************************** 1. row ***************************  Level: Note   Code: 1003Message:  select `atguigudb1`.`s1`.`key1` AS `key1`,`atguigudb1`.`s2`.`key1` AS `key1` from `atguigudb1`.`s1` join `atguigudb1`.`s2` where ((`atguigudb1`.`s1`.`key1` = `atguigudb1`.`s2`.`key1`) and (`atguigudb1`.`s2`.`common_field` is not null))1 row in set (0.00 sec)

上面 message 中显示的是数据库优化、重写后真正执行的查询语句。果然它帮我们做了优化

② 再举一个例子:下面是一个 子查询SQL,应该对应着两个不同的id~

EXPLAIN SELECT * FROM s1 WHERE key1 IN (SELECT key2 FROM s2 WHERE common_field = 'a');

但是真正执行后,对应着竟然是相同的id

image-20220814134557598

我们使用SHOW WARNINGS\G;进行分析,发现执行引擎将其优化成了 多表连接查询的方式

mysql> SHOW WARNINGS\G;*************************** 1. row ***************************  Level: Warning   Code: 1739Message: Cannot use ref access on index 'idx_key1' due to type or collation conversion on field 'key1'*************************** 2. row ***************************  Level: Note   Code: 1003Message:  select `atguigudb1`.`s1`.`id` AS `id`,`atguigudb1`.`s1`.`key1` AS `key1`,`atguigudb1`.`s1`.`key2` AS `key2`,`atguigudb1`.`s1`.`key3` AS `key3`,`atguigudb1`.`s1`.`key_part1` AS `key_part1`,`atguigudb1`.`s1`.`key_part2` AS `key_part2`,`atguigudb1`.`s1`.`key_part3` AS `key_part3`,`atguigudb1`.`s1`.`common_field` AS `common_field` from `atguigudb1`.`s2` join `atguigudb1`.`s1` where ((`atguigudb1`.`s2`.`common_field` = 'a') and (cast(`atguigudb1`.`s1`.`key1` as double) = cast(`atguigudb1`.`s2`.`key2` as double)))2 rows in set (0.00 sec)

OPTIMIZE_TRACE 是 mysql 5.6 中引入的一个跟踪工具,它可以跟踪优化器做出的各种决策,比如访问表的方法,各种开销计算,各种转换,结果会被记录到 information_schema.optimizer_trace中。

此功能默认关闭。开启trace,并设置格式为JSON,同时设置trace最大能够使用的内存大小,避免解析过程中因为默认内存过小而不能够完整展示。命令如下:

SET optimizer_trace="enabled=on",end_markers_in_json=on;set optimizer_trace_max_mem_size=1000000;

开启后,可分析如下语句:

测试:执行如下 SQL 语句

select * from student where id < 10;

最后, 查询 information_schema.optimizer_trace 就可以知道 MySQL 是如何执行 SQL 的

select * from information_schema.optimizer_trace\G;

结果如下

*************************** 1. row *************************** //第1部分:查询语句 QUERY: select * from student where id < 10 //第2部分:QUERY字段对应语句的跟踪信息 TRACE: { "steps": [ {   "join_preparation": {  //预备工作    "select#": 1,    "steps": [    {      "expanded_query": " select `student`.`id` AS`id`,`student`.`stuno` AS `stuno`,`student`.`name` AS `name`,`student`.`age` AS`age`,`student`.`classId` AS `classId` from `student` where (`student`.`id` < 10)"    }   ]   }  }, {   "join_optimization": {  //进行优化    "select#": 1,    "steps": [    {      "condition_processing": {  //条件处理       "condition": "WHERE",       "original_condition": "(`student`.`id` < 10)",       "steps": [       {         "transformation": "equality_propagation",         "resulting_condition": "(`student`.`id` < 10)"       },       {         "transformation": "constant_propagation",         "resulting_condition": "(`student`.`id` < 10)"       },       {         "transformation": "trivial_condition_removal",         "resulting_condition": "(`student`.`id` < 10)"       }]      }     },    {      "substitute_generated_columns": {  //替换生成的列     }     },    {      "table_dependencies": [   //表的依赖关系      {        "table": "`student`",        "row_may_be_null": false,        "map_bit": 0,        "depends_on_map_bits": [       ]       }     ]     },    {      "ref_optimizer_key_uses": [   //使用键     ]     },    {      "rows_estimation": [   //行判断      {        "table": "`student`",        "range_analysis": {         "table_scan": {          "rows": 3973767,          "cost": 408558        } ,   //扫描表         "potential_range_indexes": [   //潜在的范围索引         {           "index": "PRIMARY",           "usable": true,           "key_parts": [            "id"          ]          }        ] ,         "setup_range_conditions": [   //设置范围条件        ] ,         "group_index_range": {          "chosen": false,          "cause": "not_group_by_or_distinct"        } ,         "skip_scan_range": {          "potential_skip_scan_indexes": [          {            "index": "PRIMARY",            "usable": false,            "cause": "query_references_nonkey_column"          }         ]         } ,         "analyzing_range_alternatives": {  //分析范围选项          "range_scan_alternatives": [          {"index": "PRIMARY",            "ranges": [             "id < 10"           ] ,            "index_dives_for_eq_ranges": true,            "rowid_ordered": true,            "using_mrr": false,            "index_only": false,            "rows": 9,            "cost": 1.91986,            "chosen": true          }         ] ,          "analyzing_roworder_intersect": {           "usable": false,           "cause": "too_few_roworder_scans"         }         } ,         "chosen_range_access_summary": {   //选择范围访问摘要          "range_access_plan": {           "type": "range_scan",           "index": "PRIMARY",           "rows": 9,           "ranges": [            "id < 10"          ]          } ,          "rows_for_plan": 9,          "cost_for_plan": 1.91986,          "chosen": true        }        }       }     ]     },    {      "considered_execution_plans": [  //考虑执行计划      {        "plan_prefix": [       ] ,        "table": "`student`",        "best_access_path": {  //最佳访问路径         "considered_access_paths": [         {           "rows_to_scan": 9,           "access_type": "range",           "range_details": {            "used_index": "PRIMARY"          } ,           "resulting_rows": 9,           "cost": 2.81986,           "chosen": true         }        ]        } ,        "condition_filtering_pct": 100,  //行过滤百分比        "rows_for_plan": 9,        "cost_for_plan": 2.81986,        "chosen": true      }     ]     },    {      "attaching_conditions_to_tables": {  //将条件附加到表上       "original_condition": "(`student`.`id` < 10)",       "attached_conditions_computation": [      ] ,       "attached_conditions_summary": [  //附加条件概要       {         "table": "`student`",         "attached": "(`student`.`id` < 10)"       }      ]      }     },    {      "finalizing_table_conditions": [      {        "table": "`student`",        "original_table_condition": "(`student`.`id` < 10)",        "final_table_condition  ": "(`student`.`id` < 10)"      }     ]     },    {      "refine_plan": [  //精简计划      {        "table": "`student`"      }     ]     }   ]   }  }, {   "join_execution": {   //执行    "select#": 1,    "steps": [   ]   }  }] }//第3部分:跟踪信息过长时,被截断的跟踪信息的字节数。MISSING_BYTES_BEYOND_MAX_MEM_SIZE: 0  //丢失的超出最大容量的字节//第4部分:执行跟踪语句的用户是否有查看对象的权限。当不具有权限时,该列信息为1且TRACE字段为空,一般在调用带有SQL SECURITY DEFINER的视图或者是存储过程的情况下,会出现此问题。INSUFFICIENT_PRIVILEGES: 0  //缺失权限1 row in set (0.00 sec)

image-20220814140207739

9.1 Sys schema视图摘要

  1. 主机相关:以 host_summary 开头,主要汇总了 IO 延迟的信息。
  2. Innodb 相关:以 innodb 开头,汇总了 innodb buffer 信息和事务等待 innodb 锁的信息。
  3. I/O相关:以 IO 开头,汇总了等待 I/O、I/O 使用量情况。
  4. 内存使用情况:以 memory 开头,从主机、线程、事件等角度展示内存的使用情况
  5. 连接与会话信息:processlist 和 session 相关视图,总结了会话相关信息。
  6. 表相关:以 schema_table 开头的视图,展示了表的统计信息。
  7. 索引信息:统计了索引的使用情况,包含冗余索引和未使用的索引情况。
  8. 语句相关:以 statement 开头,包含执行全表扫描、使用临时表、排序等的语句信息。
  9. 用户相关:以 user 开头的视图,统计了用户使用的文件 I/O、执行语句统计信息。
  10. 等待事件相关信息:以 wait 开头,展示等待事件的延迟情况。

9.2 Sys schema视图使用场景

1. 索引情况

#1. 查询冗余索引select * from sys.schema_redundant_indexes;#2. 查询未使用过的索引select * from sys.schema_unused_indexes;#3. 查询索引的使用情况select index_name,rows_selected,rows_inserted,rows_updated,rows_deletedfrom sys.schema_index_statistics where table_schema='dbname';

举例:比如我们查看下数据的的冗余索引

select * from sys.schema_redundant_indexes;

image-20220814141233022

我们任意选择一条,比如最后一条,然后查看下student_info的索引情况,看看是否idx_cre_time冗余了

image-20220814141532332

可以 看到 idx_cre_timeidx_cre_time_sid两个索引中都有 create_time。而且联合索引性能要高于单列索引,所以idx_cre_time 完全可以删掉~

2. 表相关

# 1. 查询表的访问量select table_schema,table_name,sum(io_read_requests+io_write_requests) as io from sys.schema_table_statistics group by table_schema,table_name order by io desc;# 2. 查询占用bufferpool较多的表select object_schema,object_name,allocated,datafrom sys.innodb_buffer_stats_by_table order by allocated limit 10;# 3. 查看表的全表扫描情况select * from sys.statements_with_full_table_scans where db='dbname';

例如:查询表的访问量

# 1. 查询表的访问量select table_schema,table_name,sum(io_read_requests+io_write_requests) as io from sys.schema_table_statistics group by table_schema,table_name order by io desc;

image-20220814142303829

3. 语句相关

#1. 监控SQL执行的频率select db,exec_count,query from sys.statement_analysisorder by exec_count desc;#2. 监控使用了排序的SQLselect db,exec_count,first_seen,last_seen,queryfrom sys.statements_with_sorting limit 1;#3. 监控使用了临时表或者磁盘临时表的SQLselect db,exec_count,tmp_tables,tmp_disk_tables,queryfrom sys.statement_analysis where tmp_tables>0 or tmp_disk_tables >0order by (tmp_tables+tmp_disk_tables) desc;

4. IO相关

#查看消耗磁盘IO的文件select file,avg_read,avg_write,avg_read+avg_write as avg_iofrom sys.io_global_by_file_by_bytes order by avg_read  limit 10;

5. InnoDB相关

#行锁阻塞情况select * from sys.innodb_lock_waits;

风险提示:

通过sys库去查询时,MySQL会消耗大量资源去收集相关信息,严重的可能会导致业务请求被阻塞,从而引起故障。建议生产上不要频繁的去查询sys或者performance_ schemainformation_ schema来完成监控、巡检等工作。

查询时数据库中最频繁的操作,提高查询速度可以有效地提高MySQL数据库的性能。通过对查询语句的分析可以了解查询语句的执行情况,找出查询语句执行的瓶颈,从而优化查询语句!

来源地址:https://blog.csdn.net/LXYDSF/article/details/126338994

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-数据库
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯