性能文章>算法的艺术:MySQL order by对各种排序算法的巧用>

算法的艺术:MySQL order by对各种排序算法的巧用原创

1年前
317245

【精华】洞悉MySQL底层架构:游走在缓冲与磁盘之间 这篇文章中,我们介绍了索引树的页面怎么加载到内存中,如何淘汰,等底层细节。这篇文章我们从比较宏观的角度来看MySQL中关键字的原理。本文,我们主要探索order by语句的底层原理。阅读完本文,您将了解到:

  • order by语句有哪些排序模式,以及每种排序模式的优缺点;

  • order by语句会用到哪些排序算法,在什么场景下会选择哪种排序算法;

  • 如何查看和分析sql的order by优化手段(执行计划 + OPTIMIZER_TRACE日志);

  • 如何优化order by语句的执行效率?(思想:减小行大小,尽量走索引,能够走覆盖索引最佳,可适当增加sort buffer内存大小)

这里我们从数据结构的维度来看数据和索引,也就是都当成B+树的的,我们需要数据的时候再从存储引擎的B+树中读取。

以下是我们本文作为演示例子的表,假设我们有如下表:

索引如下:

对应的idx_d索引结构如下(这里我们做了一些夸张的手法,让一个页数据变小,为了展现在索引树中的查找流程):

1、如何跟踪执行优化

为了方便分析sql的执行流程,我们可以在当前session中开启 optimizer_trace:

SET optimizer_trace='enabled=on';

然后执行sql,执行完之后,就可以通过以下堆栈信息查看执行详情了:

SELECT * FROM information_schema.OPTIMIZER_TRACE\G;

以下是

1select a, b, c, d from t20 force index(idx_abc)  where a=3 order by d limit 100,2;

的执行结果,其中符合a=3的有8457条记录,针对order by重点关注以下属性

 1"filesort_priority_queue_optimization": {  // 是否启用优先级队列
2  "limit"102,           // 排序后需要取的行数,这里为 limit 100,2,也就是100+2=102
3  "rows_estimate"24576, // 估计参与排序的行数
4  "row_size"123,        // 行大小
5  "memory_available"32768,    // 可用内存大小,即设置的sort buffer大小
6  "chosen"true          // 是否启用优先级队列
7},
8...
9"filesort_summary": {
10  "rows"103,                // 排序过程中会持有的行数
11  "examined_rows"8457,      // 参与排序的行数,InnoDB层返回的行数
12  "number_of_tmp_files"0,   // 外部排序时,使用的临时文件数量
13  "sort_buffer_size"13496,  // 内存排序使用的内存大小
14  "sort_mode""sort_key, additional_fields"  // 排序模式
15}

1.1、排序模式

其中 sort_mode有如下几种形式:

  • sort_key, rowid:表明排序缓冲区元组包含排序键值和原始表行的行id,排序后需要使用行id进行回表,这种算法也称为original filesort algorithm(回表排序算法);

  • sort_key, additional_fields:表明排序缓冲区元组包含排序键值和查询所需要的列,排序后直接从缓冲区元组取数据,无需回表,这种算法也称为modified filesort algorithm(不回表排序);

  • sort_key, packed_additional_fields:类似上一种形式,但是附加的列(如varchar类型)紧密地打包在一起,而不是使用固定长度的编码。

如何选择排序模式

选择哪种排序模式,与max_length_for_sort_data这个属性有关,这个属性默认值大小为1024字节:

  • 如果查询列和排序列占用的大小超过这个值,那么会转而使用sort_key, rowid模式;

  • 如果不超过,那么所有列都会放入sort buffer中,使用sort_key, additional_fields或者sort_key, packed_additional_fields模式;

  • 如果查询的记录太多,那么会使用sort_key, packed_additional_fields对可变列进行压缩。

1.2、排序算法

基于参与排序的数据量的不同,可以选择不同的排序算法:

  • 如果排序取的结果很小,小于内存,那么会使用优先级队列进行堆排序;

  • 例如,以下只取了前面10条记录,会通过优先级队列进行排序:

  • 1select a, b, c, d from t20 force index(idx_abc)  where a=3 order by d limit 10;
  • 如果排序limit n, m,n太大了,也就是说需要取排序很后面的数据,那么会使用sort buffer进行快速排序

  • 如下,表中a=1的数据有三条,但是由于需要limit到很后面的记录,MySQL会对比优先级队列排序和快速排序的开销,选择一个比较合适的排序算法,这里最终放弃了优先级队列,转而使用sort buffer进行快速排序:

  • 1select a, b, c, d from t20 force index(idx_abc)  where a=1 order by d limit 300,2;
  • 如果参与排序的数据sort buffer装不下了,那么我们会一批一批的给sort buffer进行内存快速排序,结果放入排序临时文件,最终使对所有排好序的临时文件进行归并排序,得到最终的结果;

  • 如下,a=3的记录超过了sort buffer,我们要查找的数据是排序后1000行起,sort buffer装不下1000行数据了,最终MySQL选择使用sort buffer进行分批快排,把最终结果进行归并排序:

  • 1select a, b, c, d from t20 force index(idx_abc)  where a=3 order by d limit 1000,10;

2、order by走索引避免排序

执行如下sql:

1select a, b, c, d from t20 force index(idx_d) where d like 't%' order by d limit 2;

我们看一下执行计划:

发现Extra列为:Using index condition,也就是这里只走了索引。

执行流程如下图所示:

通过idx_d索引进行range_scan查找,扫描到4条记录,然后order by继续走索引,已经排好序,直接取前面两条,然后去聚集索引查询完整记录,返回最终需要的字段作为查询结果。这个过程只需要借助索引。

如何查看和修改sort buffer大小?

我们看一下当前的sort buffer大小:

可以发现,这里默认配置了sort buffer大小为512k。

我们可以设置这个属性的大小:

SET GLOBAL sort_buffer_size = 32*1024;

或者

SET sort_buffer_size = 32*1024;

下面我们统一把sort buffer设置为32k

1SET sort_buffer_size = 32*1024

3、排序算法案例

3.1、使用优先级队列进行堆排序

如果排序取的结果很小,并且小于sort buffer,那么会使用优先级队列进行堆排序;

例如,以下只取了前面10条记录:

1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 10;

a=3的总记录数:8520。查看执行计划:

发现这里where条件用到了索引,order by limit用到了排序。我们进一步看看执行的optimizer_trace日志:

 1"filesort_priority_queue_optimization": {
2  "limit"10,
3  "rows_estimate"27033,
4  "row_size"123,
5  "memory_available"32768,
6  "chosen"true  // 使用优先级队列进行排序
7},
8"filesort_execution": [
9],
10"filesort_summary": {
11  "rows"11,
12  "examined_rows"8520,
13  "number_of_tmp_files"0,
14  "sort_buffer_size"1448,
15  "sort_mode""sort_key, additional_fields"
16}

发现这里是用到了优先级队列进行排序。排序模式是:sort_key, additional_fields,即先回表查询完整记录,把排序需要查找的所有字段都放入sort buffer进行排序。

所以这个执行流程如下图所示:

  1. 通过where条件a=3扫描到8520条记录;

  2. 回表查找记录;

  3. 把8520条记录中需要的字段放入sort buffer中;

  4. 在sort buffer中进行堆排序;

  5. 在排序好的结果中取limit 10前10条,写入net buffer,准备发送给客户端。

3.2、内部快速排序

如果排序limit n, m,n太大了,也就是说需要取排序很后面的数据,那么会使用sort buffer进行快速排序。MySQL会对比优先级队列排序和归并排序的开销,选择一个比较合适的排序算法。

如何衡量究竟是使用优先级队列还是内存快速排序?
一般来说,快速排序算法效率高于堆排序,但是堆排序实现的优先级队列,无需排序完所有的元素,就可以得到order by limit的结果。
MySQL源码中声明了快速排序速度是堆排序的3倍,在实际排序的时候,会根据待排序数量大小进行切换算法。如果数据量太大的时候,会转而使用快速排序。

有如下SQL:

1select a, b, c, d from t20 force index(idx_abc)  where a=1 order by d limit 300,2;

我们把sort buffer设置为32k:

1SET sort_buffer_size = 32*1024

其中a=1的记录有3条。查看执行计划:

可以发现,这里where条件用到了索引,order by limit 用到了排序。我们进一步看看执行的optimizer_trace日志:

 1"filesort_priority_queue_optimization": {
2  "limit"302,
3  "rows_estimate"27033,
4  "row_size"123,
5  "memory_available"32768,
6  "strip_additional_fields": {
7    "row_size"57,
8    "sort_merge_cost"33783,
9    "priority_queue_cost"61158,
10    "chosen"false  // 对比发现快速排序开销成本比优先级队列更低,这里不适用优先级队列
11  }
12},
13"filesort_execution": [
14],
15"filesort_summary": {
16  "rows"3,
17  "examined_rows"3,
18  "number_of_tmp_files"0,
19  "sort_buffer_size"32720,
20  "sort_mode""<sort_key, packed_additional_fields>"
21}

可以发现这里最终放弃了优先级队列,转而使用sort buffer进行快速排序。

所以这个执行流程如下图所示:

  1. 通过where条件a=1扫描到3条记录;

  2. 回表查找记录;

  3. 把3条记录中需要的字段放入sort buffer中;

  4. 在sort buffer中进行快速排序

  5. 在排序好的结果中取limit 300, 2第300、301条记录,写入net buffer,准备发送给客户端。

3.3、外部归并排序

当参与排序的数据太多,一次性放不进去sort buffer的时候,那么我们会一批一批的给sort buffer进行内存排序,结果放入排序临时文件,最终使对所有排好序的临时文件进行归并排序,得到最终的结果。

有如下sql:

1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 1000,10;

其中a=3的记录有8520条。执行计划如下:

image-20200614171147989

可以发现,这里where用到了索引,order by limit用到了排序。进一步查看执行的optimizer_trace日志:

 1"filesort_priority_queue_optimization": {
2  "limit"1010,
3  "rows_estimate"27033,
4  "row_size"123,
5  "memory_available"32768,
6  "strip_additional_fields": {
7    "row_size"57,
8    "chosen"false,
9    "cause""not_enough_space"  // sort buffer空间不够,无法使用优先级队列进行排序了
10  }
11},
12"filesort_execution": [
13],
14"filesort_summary": {
15  "rows"8520,
16  "examined_rows"8520,
17  "number_of_tmp_files"24,  // 用到了24个外部文件进行排序
18  "sort_buffer_size"32720,
19  "sort_mode""<sort_key, packed_additional_fields>"
20}

我们可以看到,由于limit 1000,要返回排序后1000行以后的记录,显然sort buffer已经不能支撑这么大的优先级队列了,所以转而使用sort buffer内存排序,而这里需要在sort buffer中分批执行快速排序,得到多个排序好的外部临时文件,最终执行归并排序。(外部临时文件的位置由tmpdir参数指定)

其流程如下图所示:

4、排序模式案例

4.1、sort_key, additional_fields模式

sort_key, additional_fields,排序缓冲区元组包含排序键值和查询所需要的列(先回表取需要的数据,存入排序缓冲区中),排序后直接从缓冲区元组取数据,无需再次回表。

上面 2.3.1、2.3.2节的例子都是这种排序模式,就不继续举例了。

4.2、 <sort_key, packed_additional_fields="" style="font-size: inherit;color: inherit;line-height: inherit;"> 模式 </sort_key,>

sort_key, packed_additional_fields:类似上一种形式,但是附加的列(如varchar类型)紧密地打包在一起,而不是使用固定长度的编码。

上面2.3.3节的例子就是这种排序模式,由于参与排序的总记录大小太大了,因此需要对附加列进行紧密地打包操作,以节省内存。

4.3、 <sort_key, rowid="" style="font-size: inherit;color: inherit;line-height: inherit;"> 模式 </sort_key,>

前面我们提到,选择哪种排序模式,与max_length_for_sort_data[2]这个属性有关,max_length_for_sort_data规定了排序行的最大大小,这个属性默认值大小为1024字节:

也就是说如果查询列和排序列占用的大小小于这个值,这个时候会走sort_key, additional_fields或者sort_key, packed_additional_fields算法,否则,那么会转而使用sort_key, rowid模式。

现在我们特意把这个值设置小一点,模拟sort_key, rowid模式:

1SET max_length_for_sort_data = 100;

这个时候执行sql:

1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 10;

这个时候再查看sql执行的optimizer_trace日志:

 1"filesort_priority_queue_optimization": {
2  "limit"10,
3  "rows_estimate"27033,
4  "row_size"49,
5  "memory_available"32768,
6  "chosen"true
7},
8"filesort_execution": [
9],
10"filesort_summary": {
11  "rows"11,
12  "examined_rows"8520,
13  "number_of_tmp_files"0,
14  "sort_buffer_size"632,
15  "sort_mode""<sort_key, rowid>"
16}

可以发现这个时候切换到了sort_key, rowid模式,在这个模式下,执行流程如下:

  1. where条件a=3扫描到8520条记录;

  2. 回表查找记录;

  3. 找到这8520条记录的idd字段,放入sort buffer中进行堆排序;

  4. 排序完成后,取前面10条;

  5. 取这10条的id回表查询需要的a,b,c,d字段值;

  6. 依次返回结果给到客户端。

可以发现,正因为行记录太大了,所以sort buffer中只存了需要排序的字段和主键id,以时间换取空间,最终排序完成,再次从聚集索引中查找到所有需要的字段返回给客户端,很明显,这里多了一次回表操作的磁盘读,整体效率上是稍微低一点的。

5、order by优化总结

根据以上的介绍,我们可以总结出以下的order by语句的相关优化手段:

  • order by字段尽量使用固定长度的字段类型,因为排序字段不支持压缩;

  • order by字段如果需要用可变长度,应尽量控制长度,道理同上;

  • 查询中尽量不用用select *,避免查询过多,导致order by的时候sort buffer内存不够导致外部排序,或者行大小超过了max_length_for_sort_data导致走了sort_key, rowid排序模式,使得产生了更多的磁盘读,影响性能;

  • 尝试给排序字段和相关条件加上联合索引,能够用到覆盖索引最佳。


这篇文章的内容就差不多介绍到这里了,能够阅读到这里的朋友真的是很有耐心,为你点个赞。

本文为arthinking基于相关技术资料和官方文档撰写而成,确保内容的准确性,如果你发现了有何错漏之处,烦请高抬贵手帮忙指正,万分感激。

大家可以关注我的博客:itzhai.com 获取更多文章,我将持续更新后端相关技术,涉及JVM、Java基础、架构设计、网络编程、数据结构、数据库、算法、并发编程、分布式系统等相关内容。

References

[1]: 滴滴云. MySQL 全表 COUNT(*) 简述. zhihu.com. Retrieved from https://zhuanlan.zhihu.com/p/54378839

[2]: MySQL. 8.2.1.14 ORDER BY Optimization. Retrieved from https://dev.mysql.com/doc/refman/5.7/en/order-by-optimization.html

[3]: MySQL:排序(filesort)详细解析. Retrieved from https://www.jianshu.com/p/069428a6594e

[4]: MYSQL实现ORDER BY LIMIT的方法以及优先队列(堆排序). Retrieved from http://blog.itpub.net/7728585/viewspace-2130920/

点赞收藏
arthinking
请先登录,查看4条精彩评论吧
快去登录吧,你将获得
  • 浏览更多精彩评论
  • 和开发者讨论交流,共同进步

为你推荐

日常Bug排查-偶发性读数据不一致

日常Bug排查-偶发性读数据不一致

5
4