您现在的位置是:网站首页> 编程资料编程资料

MySQL查询截取的深入分析_Mysql_

2023-05-27 404人已围观

简介 MySQL查询截取的深入分析_Mysql_

一、查询优化

1,mysql的调优大纲

  • 慢查询的开启并捕获
  • explain+慢SQL分析
  • show profile查询SQL在Mysql服务器里面的执行细节和生命周期情况
  • SQL数据库服务器的参数调优

2,小表驱动大表

  mysql的join实现原理是,以驱动表的数据为基础,“嵌套循环”去被驱动表匹配记录。驱动表的索引会失效,而被驱动表的索引有效。

 #假设 a表10000数据,b表20数据 select * from a join b on a.bid =b.id
 a表驱动b表为: for 20条数据 匹配10000数据(根据on a.bid=b.id的连接条件,进行B+树查找) 查找次数为:20+ log10000 b表驱动a表为 for 10000条数据 匹配20条数据(根据on a.bid=b.id的连接条件,进行B+树查找)查找次数为:10000+ log20

3,in和exists

  exists的使用

  • EXISTS 语法:EXISTS(subquery) 只返回TRUE或FALSE,因此子查询中的SELECT *也可以是SELECT 1或其他,官方说法是实际执行时会忽略SELECT清单,因此没有区别
    • SELECT ... FROM table WHERE EXISTS(subquery)
    • 该语法可以理解为:将查询的数据,放到子查询中做条件验证,根据验证结果(TRUE或FALSE)来决定主查询的数据结果是否得以保留。
  • EXISTS子查询的实际执行过程可能经过了优化而不是我们理解上的逐条对比,如果担忧效率问题,可进行实际检验以确定是否有效率问题。
  • EXISTS子查询往往也可以用条件表达式、其他子查询或者JOIN来替代,何种最优需要具体问题具体分析
 #采用in则是,内表B驱动外表A select * from A where id in (select id from B) #采用exists则是,外表A驱动内表B select * from A where exists(select 1 from B where B.id = A.id)

  结论:

 永远记住小表驱动大表 当 B 表数据集小于 A 表数据集时,使用 in 当 A 表数据集小于 B 表数据集时,使用 exist

4,orderby创建表

 create table tblA( #id int primary key not null auto_increment, age int, birth timestamp not null ); insert into tblA(age, birth) values(22, now()); insert into tblA(age, birth) values(23, now()); insert into tblA(age, birth) values(24, now()); #创建复合索引 create index idx_A_ageBirth on tblA(age, birth);

orderby命中索引的情况

orderby未命中索引的情况

  • MySQL支持两种排序方式:Using index和Using filesort。filesort效率较低,而要使用index方式排序需满足两种使用条件尽可能在索引列上完成排序操作,遵照索引的最佳左前缀
    • order by语句自身使用索引的最左前列
    • 使用where子句与order by子句条件列组合满足最左前列
  • 如果order by不在索引列上,会使用filesort算法:双路排序和单路排序
    • MySQL4.1之前是使用双路排序,字面意思是两次扫描磁盘,最终得到数据。读取行指针和order by列,对他们进行排序,然后扫描已经排序好的列表,按照列表中的值重新从列表中读取对应的数据传输
    • 从磁盘读取查询需要的所有列,按照order by列在buffer对它们进行排序,然后扫描排序后的列表进行输出,它的效率更快一些,避免了第二次读取数据,并且把随机IO变成顺序IO,但是它会使用更多的空间,因为它把每一行都保存在内存中了。
 select * from user where name = "zs" order by age #双路排序 1)从 name 找到第一个满足 name = 'zs' 的主键id 2)根据主键 id 取出整行,把排序字段 age 和主键 id 这两个字段放到 sort buffer(排序缓存) 中 3)从name 取下一个满足 name = 'zs' 记录的主键 id 4)重复 2、3 直到不满足 name = 'zs' 5)对 sort_buffer 中的字段 age 和主键 id 按照字段 age进行排序 6)遍历排序好的 id 和字段 age ,按照 id 的值回到原表中取出 所有字段的值返回给客户端 #单路排序 1)从name找到第一个满足 name ='zs' 条件的主键 id 2)根据主键 id 取出整行,取出所有字段的值,存入 sort_buffer(排序缓存)中 3)从索引name找到下一个满足 name = 'zs' 条件的主键 id 4)重复步骤 2、3 直到不满足 name = 'zs' 5)对 sort_buffer 中的数据按照字段 age 进行排序,返回结果给客户端

单路排序的问题及优化

 问题: 由于单路是改进的算法,总体而言好过双路 在sort_buffer中,方法B比方法A要多占用很多空间,因为方法B是把所有字段都取出,所以有可能取出的数据的总大小超出了sort_buffer的容量,导致每次只能取sort_buffer容量大小的数据,进行排序(创建tmp文件,多路合并),排完再取取sort_buffer容量大小,再排…… 从而会导致多次I/O。 优化策略: 增大sort_buffer_size参数的设置 增大max_length_for_sort_data参数的设置 注意事项:   Order by时select *是一个大忌,只Query需要的字段。因为字段越多在内存中存储的数据也就也多,这样就导致每次I/O能加载的数据列越少。

5,groupby优化

1)group by实质是先排序后进行分组,遵照索引的最佳左前缀
2)当无法使用索引列,增大max_length_for_sort_data参数的设置+增大sort_buffer_size参数的设置
3)where高于having,能写在where限定的条件就不要去having限定了
4)其余的规则均和 order by 一致

二、慢查询日志

1,慢查询日志是什么?

  1. MySQL的慢查询日志是MySQL提供的一种日志记录,它用来记录在MySQL中响应时间超过阀值的语句,具体指运行时间超过long_query_time值的SQL,则会被记录到慢查询日志中。
  2. long_query_time的默认值为10,意思是运行10秒以上的SQL语句会被记录下来
  3. 由他来查看哪些SQL超出了我们的最大忍耐时间值,比如一条sql执行超过5秒钟,我们就算慢SQL,希望能收集超过5秒的sql,结合之前explain进行全面分析。

2,慢查询日志的开启

  默认情况下,MySQL的慢查询日志是没有开启的。如果不是调优需要的话,一般不建议启动该参数,因为开启慢查询日志会影响到性能,慢查询日志支持将日志记录写入文件。

a)开启慢查询日志

 #查看是否开启慢日志 show variables like 'slow_query_log%'; #开启慢查询日志,想要永久有效在my.cnf中设置 set global slow_query_log = 1 ;

b)设置慢查询日志的阈值

 #查看慢查询日志的阈值时间 默认为10s show variables like 'long_query_time%'; #设置为3s 重启失效,想要永久有效在my.cnf中设置 set global long_query_time = 3 #再次查看,需要切换窗口查看 show variables like 'long_query_time%';

c)持久化慢查询日志和时间阈值

 [mysqld] #持久化慢查询日志 slow_query_log=1; slow_query_log_file=/var/lib/mysql/hadoop102-slow.log long_query_time=3; log_output=FILE

d)慢查询案例

 #查询等待4s select sleep(4); 
 #在linux系统中,查看慢查询日志 cat /var/lib/mysql/hadoop102-slow.log

e)查看当前系统中存在的慢查询日志条数

 show global status like '%Slow_queries%';

3,日志分析命令mysqldumpslow

a)参数解释

-s:是表示按何种方式排序
c:访问次数
l:锁定时间
r:返回记录
t:查询时间
al:平均锁定时间
ar:平均返回记录数
at:平均查询时间
-t:即为返回前面多少条的数据
-g:后边搭配一个正则匹配模式,大小写不敏感的

b)常用方法

 #得到返回记录集最多的10个SQL mysqldumpslow -s r -t 10 /var/lib/mysql/hadoop102-slow.log #得到访问次数最多的10个SQL mysqldumpslow -s c -t 10 /var/lib/mysql/hadoop102-slow.log #得到按照时间排序的前10条里面含有左连接的查询语句 mysqldumpslow -s t -t 10 -g "left join" /var/lib/mysql/hadoop102-slow.log #这些命令时结合 | 和more使用 mysqldumpslow -s r -t 10 /var/lib/mysql/hadoop102-slow.log | more

三、批量写数据脚本

1,建表

 CREATE TABLE dept ( deptno int unsigned primary key auto_increment, dname varchar(20) not null default '', loc varchar(8) not null default '' )ENGINE=INNODB DEFAULT CHARSET=utf8; CREATE TABLE emp ( id int unsigned primary key auto_increment, empno mediumint unsigned not null default 0, ename varchar(20) not null default '', job varchar(9) not null default '', mgr mediumint unsigned not null default 0, hiredate date not null, sal decimal(7,2) not null, comm decimal(7,2) not null, deptno mediumint unsigned not null default 0 )ENGINE=INNODB DEFAULT CHARSET=utf8;

2,设置是否可以信任存储函数创建者

 #查看binlog状态 show variables like 'log_bin%'; #添加可以信任存储函数创建者 set global log_bin_trust_function_creators = 1;

3,创建函数

随机产生字符串的函数

 # 定义两个 $$ 表示结束 (替换原先的;) delimiter $$ create function rand_string(n int) returns varchar(255) begin declare chars_str varchar(100) default 'abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ'; declare return_str varchar(255) default ''; declare i int default 0; while i < n do set return_str = concat(return_str,substring(chars_str,floor(1+rand()*52),1)); set i=i+1; end while; return return_str; end $$

随机产生部门编号的函数

 delimiter $$ create function rand_num() returns int(5) begin declare i int default 0; set i=floor(100+rand()*10); return i; end $$

4,创建存储过程

创建往emp表中插入数据的存储过程

 delimiter $$ create procedure insert_emp(in start int(10),in max_num int(10)) begin declare i int default 0; set autocommit = 0; repeat set i = i+1; insert into emp(empno,ename,job,mgr,hiredate,sal,comm,deptno) values((start+i),rand_string(6),'salesman',0001,curdate(),2000,400,rand_num()); until i=max_num end repeat; commit; end $$

创建往dept表中插入数据的存储过程

提示:
                    本文由整理自网络,如有侵权请联系本站删除!
                    
本站声明:
1、本站所有资源均来源于互联网,不保证100%完整、不提供任何技术支持;
2、本站所发布的文章以及附件仅限用于学习和研究目的;不得将用于商业或者非法用途;否则由此产生的法律后果,本站概不负责!

-六神源码网