(随笔) mysql 优化 limit 过慢问题

本贴最后更新于 1656 天前,其中的信息可能已经时移世改

在 mysql 中 limit 可以实现快速分页,但是如果数据到了几百万时我们的 limit 必须优化才能有效的合理的实现分页了,否则可能卡死你的服务器哦。

当一个表数据有几百万的数据的时候成了问题!

如 select * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决
第一页会很快
PERCONA PERFORMANCE CONFERENCE 2009 上,来自雅虎的几位工程师带来了一篇”EfficientPagination Using MySQL”的报告
limit10000,20 的意思扫描满足条件的 10020 行,扔掉前面的 10000 行,返回最后的 20 行,问题就在这里。
LIMIT 451350 , 30 扫描了 45 万多行,怪不得慢的都堵死了。
但是
limit 30 这样的语句仅仅扫描 30 行。

那么如果我们之前记录了最大 ID,就可以在这里做文章

举个例子:

日常分页 SQL 语句
select id,name,content from users order by id asc limit 100000,20
扫描 100020 行
如果记录了上次的最大 ID
select id,name,content from users where id>100073 order by id asc limit 20
扫描 20 行。
总数据有 500 万左右
以下例子 当时候 select * from wl_tagindex where byname='f' order by id limit 300000,10 执行时间是 3.21s
优化后:

执行时间为 0.11s 速度明显提升
这里需要说明的是 我这里用到的字段是 byname ,id 需要把这两个字段做复合索引,否则的话效果提升不明显

总结:

当一个数据库表过于庞大,LIMIT offset, length 中的 offset 值过大,则 SQL 查询语句会非常缓慢,你需增加 order by,并且 order by 字段需要建立索引。
如果使用子查询去优化 LIMIT 的话,则子查询必须是连续的,某种意义来讲,子查询不应该有 where 条件,where 会过滤数据,使数据失去连续性。
如果你查询的记录比较大,并且数据传输量比较大,比如包含了 text 类型的 field,则可以通过建立子查询。

SELECT id,title,content FROM items WHERE id IN (SELECT id FROM items ORDER BY id limit 900000, 10);

如果 limit 语句的 offset 较大,你可以通过传递 pk 键值来减小 offset = 0,这个主键最好是 int 类型并且 auto_increment

SELECT * FROM users WHERE uid > 456891 ORDER BY uid LIMIT 0, 10;

这条语句,大意如下:

SELECT * FROM users WHERE uid >= (SELECT uid FROM users ORDER BY uid limit 895682, 1) limit 0, 10;
如果 limit 的 offset 值过大,用户也会翻页疲劳,你可以设置一个 offset 最大的,超过了可以另行处理,一般连续翻页过大,用户体验很差,则应该提供更优的用户体验给用户。

limit 分页优化方法

1.子查询优化法
先找出第一条数据,然后大于等于这条数据的 id 就是要获取的数据
缺点:数据必须是连续的,可以说不能有 where 条件,where 条件会筛选数据,导致数据失去连续性
实验下
mysql> set profi=1;
Query OK, 0 rows affected (0.00 sec)
mysql> select count() from Member;
+———-+
| count(
) |
+———-+
| 169566 |
+———-+
1 row in set (0.00 sec)
mysql> pager grep !~-
PAGER set to ‘grep !~-‘
mysql> select * from Member limit 10, 100;
100 rows in set (0.00 sec)
mysql> select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100;
100 rows in set (0.00 sec)
mysql> select * from Member limit 1000, 100;
100 rows in set (0.01 sec)
mysql> select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100;
100 rows in set (0.00 sec)
mysql> select * from Member limit 100000, 100;
100 rows in set (0.10 sec)
mysql> select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100;
100 rows in set (0.02 sec)
mysql> nopager
PAGER set to stdout
mysql> show profilesG
*************************** 1. row ***************************
Query_ID: 1
Duration: 0.00003300
Query: select count(*) from Member
*************************** 2. row ***************************
Query_ID: 2
Duration: 0.00167000
Query: select * from Member limit 10, 100
*************************** 3. row ***************************
Query_ID: 3
Duration: 0.00112400
Query: select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100
*************************** 4. row ***************************
Query_ID: 4
Duration: 0.00263200
Query: select * from Member limit 1000, 100
*************************** 5. row ***************************
Query_ID: 5
Duration: 0.00134000
Query: select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100
*************************** 6. row ***************************
Query_ID: 6
Duration: 0.09956700
Query: select * from Member limit 100000, 100
*************************** 7. row ***************************
Query_ID: 7
Duration: 0.02447700
Query: select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100
从结果中可以得知,当偏移 1000 以上使用子查询法可以有效的提高性能。
**2.倒排表优化法**
倒排表法类似建立索引,用一张表来维护页数,然后通过高效的连接得到数据
缺点:只适合数据数固定的情况,数据不能删除,维护页表困难
**3.反向查找优化法**
当偏移超过一半记录数的时候,先用排序,这样偏移就反转了
缺点:order by 优化比较麻烦,要增加索引,索引影响数据的修改效率,并且要知道总记录数
,偏移大于数据的一半
引用
limit 偏移算法:
正向查找: (当前页 – 1) * 页长度
反向查找: 总记录 – 当前页 * 页长度
做下实验,看看性能如何
总记录数:1,628,775
每页记录数: 40
总页数:1,628,775 / 40 = 40720
中间页数:40720 / 2 = 20360
第 21000 页
正向查找 SQL:
Sql 代码
SELECT * FROM abc WHERE BatchID = 123 LIMIT 839960, 40
时间:1.8696 秒
反向查找 sql:
Sql 代码
SELECT * FROM abc WHERE BatchID = 123 ORDER BY InputDate DESC LIMIT 788775, 40
时间:1.8336 秒
第 30000 页
正向查找 SQL:
Sql 代码
1.SELECT * FROM abc WHERE BatchID = 123 LIMIT 1199960, 40
SELECT * FROM abc WHERE BatchID = 123 LIMIT 1199960, 40
时间:2.6493 秒
反向查找 sql:
Sql 代码
1.SELECT * FROM abc WHERE BatchID = 123 ORDER BY InputDate DESC LIMIT 428775, 40
SELECT * FROM abc WHERE BatchID = 123 ORDER BY InputDate DESC LIMIT 428775, 40
时间:1.0035 秒
注意,反向查找的结果是是降序 desc 的,并且 InputDate 是记录的插入时间,也可以用主键联合索引,但是不方便。
**4.limit 限制优化法**
把 limit 偏移量限制低于某个数。。超过这个数等于没数据,我记得 alibaba 的 dba 说过他们是这样做的
**5.只查索引法**

  • MySQL

    MySQL 是一个关系型数据库管理系统,由瑞典 MySQL AB 公司开发,目前属于 Oracle 公司。MySQL 是最流行的关系型数据库管理系统之一。

    673 引用 • 535 回帖

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...