一、查询优化

1,mysql的调优大纲

  • 慢查询的开启并捕获
  • explain+慢SQL分析
  • show profile查询SQL在Mysql服务器里面的执行细节和生命周期情况
  • SQL数据库服务器的参数调优

2,小表驱动大表

  mysql的join实现原理是,以驱动表的数据为基础,“嵌套循环”去被驱动表匹配记录。驱动表的索引会失效,而被驱动表的索引有效。

#假设 a表10000数据,b表20数据
select * from a join b on a.bid =b.id
a表驱动b表为:
for 20条数据
 匹配10000数据(根据on a.bid=b.id的连接条件,进行B+树查找)
查找次数为:20+ log10000
b表驱动a表为
for 10000条数据
 匹配20条数据(根据on a.bid=b.id的连接条件,进行B+树查找)查找次数为:10000+ log20

3,in和exists

  exists的使用

  • EXISTS 语法:EXISTS(subquery) 只返回TRUE或FALSE,因此子查询中的SELECT *也可以是SELECT 1或其他,官方说法是实际执行时会忽略SELECT清单,因此没有区别
    • SELECT ... FROM table WHERE EXISTS(subquery)
    • 该语法可以理解为:将查询的数据,放到子查询中做条件验证,根据验证结果(TRUE或FALSE)来决定主查询的数据结果是否得以保留。
  • EXISTS子查询的实际执行过程可能经过了优化而不是我们理解上的逐条对比,如果担忧效率问题,可进行实际检验以确定是否有效率问题。
  • EXISTS子查询往往也可以用条件表达式、其他子查询或者JOIN来替代,何种最优需要具体问题具体分析
#采用in则是,内表B驱动外表A
select * from A where id in (select id from B)
#采用exists则是,外表A驱动内表B
select * from A where exists(select 1 from B where B.id = A.id)

  结论:

永远记住小表驱动大表
当 B 表数据集小于 A 表数据集时,使用 in
当 A 表数据集小于 B 表数据集时,使用 exist

4,orderby创建表

create table tblA(
 #id int primary key not null auto_increment,
 age int,
 birth timestamp not null
);

insert into tblA(age, birth) values(22, now());
insert into tblA(age, birth) values(23, now());
insert into tblA(age, birth) values(24, now());
#创建复合索引
create index idx_A_ageBirth on tblA(age, birth);

MySQL查询截取的深入分析

orderby命中索引的情况

MySQL查询截取的深入分析

orderby未命中索引的情况

MySQL查询截取的深入分析

  • MySQL支持两种排序方式:Using index和Using filesort。filesort效率较低,而要使用index方式排序需满足两种使用条件尽可能在索引列上完成排序操作,遵照索引的最佳左前缀
    • order by语句自身使用索引的最左前列
    • 使用where子句与order by子句条件列组合满足最左前列
  • 如果order by不在索引列上,会使用filesort算法:双路排序和单路排序
    • MySQL4.1之前是使用双路排序,字面意思是两次扫描磁盘,最终得到数据。读取行指针和order by列,对他们进行排序,然后扫描已经排序好的列表,按照列表中的值重新从列表中读取对应的数据传输
    • 从磁盘读取查询需要的所有列,按照order by列在buffer对它们进行排序,然后扫描排序后的列表进行输出,它的效率更快一些,避免了第二次读取数据,并且把随机IO变成顺序IO,但是它会使用更多的空间,因为它把每一行都保存在内存中了。
select * from user where name = "zs" order by age
#双路排序
1)从 name 找到第一个满足 name = 'zs' 的主键id
2)根据主键 id 取出整行,把排序字段 age 和主键 id 这两个字段放到 sort buffer(排序缓存) 中
3)从name 取下一个满足 name = 'zs' 记录的主键 id
4)重复 2、3 直到不满足 name = 'zs'
5)对 sort_buffer 中的字段 age 和主键 id 按照字段 age进行排序
6)遍历排序好的 id 和字段 age ,按照 id 的值回到原表中取出 所有字段的值返回给客户端

#单路排序
1)从name找到第一个满足 name ='zs' 条件的主键 id
2)根据主键 id 取出整行,取出所有字段的值,存入 sort_buffer(排序缓存)中
3)从索引name找到下一个满足 name = 'zs' 条件的主键 id
4)重复步骤 2、3 直到不满足 name = 'zs'
5)对 sort_buffer 中的数据按照字段 age 进行排序,返回结果给客户端

单路排序的问题及优化

问题:
 由于单路是改进的算法,总体而言好过双路
 在sort_buffer中,方法B比方法A要多占用很多空间,因为方法B是把所有字段都取出,所以有可能取出的数据的总大小超出了sort_buffer的容量,导致每次只能取sort_buffer容量大小的数据,进行排序(创建tmp文件,多路合并),排完再取取sort_buffer容量大小,再排…… 从而会导致多次I/O。
优化策略:
 增大sort_buffer_size参数的设置
 增大max_length_for_sort_data参数的设置
注意事项:
  Order by时select *是一个大忌,只Query需要的字段。因为字段越多在内存中存储的数据也就也多,这样就导致每次I/O能加载的数据列越少。

5,groupby优化

1)group by实质是先排序后进行分组,遵照索引的最佳左前缀
2)当无法使用索引列,增大max_length_for_sort_data参数的设置+增大sort_buffer_size参数的设置
3)where高于having,能写在where限定的条件就不要去having限定了
4)其余的规则均和 order by 一致

二、慢查询日志

1,慢查询日志是什么"htmlcode">
#查看是否开启慢日志
show variables like 'slow_query_log%';
#开启慢查询日志,想要永久有效在my.cnf中设置
set global slow_query_log = 1 ;

MySQL查询截取的深入分析

b)设置慢查询日志的阈值

#查看慢查询日志的阈值时间 默认为10s
show variables like 'long_query_time%';
#设置为3s 重启失效,想要永久有效在my.cnf中设置
set global long_query_time = 3
#再次查看,需要切换窗口查看
show variables like 'long_query_time%';

MySQL查询截取的深入分析

c)持久化慢查询日志和时间阈值

[mysqld]
#持久化慢查询日志
slow_query_log=1;
slow_query_log_file=/var/lib/mysql/hadoop102-slow.log
long_query_time=3;
log_output=FILE

d)慢查询案例

#查询等待4s
select sleep(4); 
#在linux系统中,查看慢查询日志
cat /var/lib/mysql/hadoop102-slow.log

e)查看当前系统中存在的慢查询日志条数

show global status like '%Slow_queries%';

3,日志分析命令mysqldumpslow

a)参数解释

-s:是表示按何种方式排序
c:访问次数
l:锁定时间
r:返回记录
t:查询时间
al:平均锁定时间
ar:平均返回记录数
at:平均查询时间
-t:即为返回前面多少条的数据
-g:后边搭配一个正则匹配模式,大小写不敏感的

b)常用方法

#得到返回记录集最多的10个SQL
mysqldumpslow -s r -t 10 /var/lib/mysql/hadoop102-slow.log
#得到访问次数最多的10个SQL
mysqldumpslow -s c -t 10 /var/lib/mysql/hadoop102-slow.log
#得到按照时间排序的前10条里面含有左连接的查询语句
mysqldumpslow -s t -t 10 -g "left join" /var/lib/mysql/hadoop102-slow.log
#这些命令时结合 | 和more使用
mysqldumpslow -s r -t 10 /var/lib/mysql/hadoop102-slow.log | more

三、批量写数据脚本

1,建表

CREATE TABLE dept
(
 deptno int unsigned primary key auto_increment,
 dname varchar(20) not null default '',
 loc varchar(8) not null default ''
)ENGINE=INNODB DEFAULT CHARSET=utf8;

CREATE TABLE emp
(
 id int unsigned primary key auto_increment,
 empno mediumint unsigned not null default 0,
 ename varchar(20) not null default '',
 job varchar(9) not null default '',
 mgr mediumint unsigned not null default 0,
 hiredate date not null,
 sal decimal(7,2) not null,
 comm decimal(7,2) not null,
 deptno mediumint unsigned not null default 0
)ENGINE=INNODB DEFAULT CHARSET=utf8;

2,设置是否可以信任存储函数创建者

#查看binlog状态
show variables like 'log_bin%';
#添加可以信任存储函数创建者
set global log_bin_trust_function_creators = 1;

MySQL查询截取的深入分析

3,创建函数

随机产生字符串的函数

# 定义两个 $$ 表示结束 (替换原先的;)
delimiter $$ 
create function rand_string(n int) returns varchar(255)
begin
 declare chars_str varchar(100) default 'abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ';
 declare return_str varchar(255) default '';
 declare i int default 0;
 while i < n do
 set return_str = concat(return_str,substring(chars_str,floor(1+rand()*52),1));
 set i=i+1;
 end while;
 return return_str;
end $$

随机产生部门编号的函数

delimiter $$
create function rand_num() returns int(5)
begin
 declare i int default 0;
 set i=floor(100+rand()*10);
 return i;
end $$

4,创建存储过程

创建往emp表中插入数据的存储过程

delimiter $$
create procedure insert_emp(in start int(10),in max_num int(10))
begin
 declare i int default 0;
 set autocommit = 0;
 repeat
 set i = i+1;
 insert into emp(empno,ename,job,mgr,hiredate,sal,comm,deptno) values((start+i),rand_string(6),'salesman',0001,curdate(),2000,400,rand_num());
 until i=max_num
 end repeat;
 commit;
end $$

创建往dept表中插入数据的存储过程

delimiter $$
create procedure insert_dept(in start int(10),in max_num int(10))
begin
 declare i int default 0;
 set autocommit = 0;
 repeat
 set i = i+1;
 insert into dept(deptno,dname,loc) values((start+i),rand_string(10),rand_string(8));
 until i=max_num
 end repeat;
 commit;
end $$

5,调用存储过程生成数据

#向 部门表插入10条数据
DELIMITER ;
CALL insert_dept(100, 10);
#向 员工表插入50w条数据
CALL insert_emp(100001, 500000);

四、show profiles

1,介绍

  • show profile是mysql提供可以用来分析当前会话中语句执行的资源消耗情况。可以用于SQL的调优测量。
  • 默认情况下,参数处于关闭状态,并保存最近15次的运行结果

2,开启

#查看 Show Profile 是否开启
show variables like ‘profiling%';
#开启 Show Profile
set profiling=on;

3,使用show profiles

创建测试数据

select * from emp group by id%10 limit 150000;
select * from emp group by id%10 limit 150000;
select * from emp group by id%10 order by 5;
select * from emp
select * from dept
select * from emp left join dept on emp.deptno = dept.deptno

执行show profiles

MySQL查询截取的深入分析

执行 show profile cpu, block io for query Query_ID;

MySQL查询截取的深入分析

检索参数

ALL:显示所有的开销信息
BLOCK IO:显示块IO相关开销
CONTEXT SWITCHES:上下文切换相关开销
CPU:显示CPU相关开销信息
IPC:显示发送和接收相关开销信息
MEMORY:显示内存相关开销信息
PAGE FAULTS:显示页面错误相关开销信息
SOURCE:显示和Source_function,Source_file,Source_line相关的开销信息
SWAPS:显示交换次数相关开销的信息

返回结果

converting HEAP to MyISAM:查询结果太大,内存都不够用了往磁盘上搬了。
Creating tmp table:创建临时表,mysql 先将拷贝数据到临时表,然后用完再将临时表删除
Copying to tmp table on disk:把内存中临时表复制到磁盘,危险!!!
locked:锁表

五、全局查询日志

  切莫在生产环境配置启用

在my.cnf中配置

# 开启
general_log=1
# 记录日志文件的路径
general_log_file=/path/logfile
# 输出格式
log_output=FILE

编码启用

set global general_log=1;
set global log_output='TABLE';

配置完成之后,将会记录到mysql库里的general_log表

select * from mysql.general_log;

总结

广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!

《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线

暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。

艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。

《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。