一、基础方案:LIMIT OFFSET的致命缺陷
面试官:"假设订单表有1000万数据,如何实现分页查询?"
初级开发者的回答通常是:
SELECT * FROM orders ORDER BY create_time DESC LIMIT 10 OFFSET 1000000;
问题分析:
MySQL需要先读取1000010条记录,然后丢弃前100万条
当OFFSET=900万时,查询可能需要10秒+
大偏移量会导致大量临时文件生成(Using filesort)
二、中级优化:子查询+索引覆盖
进阶方案:
SELECT * FROM ordersWHERE id <= (SELECT id FROM orders ORDER BY create_time DESC LIMIT 1000000, 1)ORDER BY create_time DESC LIMIT 10;
优化原理:
1、子查询先通过覆盖索引快速定位到起始ID
2、主查询通过主键ID范围过滤
3、相比OFFSET方案,性能提升10倍+
适用场景:
数据量在100万-5000万级别
必须有合适的索引(create_time需建立二级索引)
三、阿里级方案:游标分页(Cursor Pagination)
面试官期待的答案:
-- 第一页SELECT * FROM ordersWHERE create_time <= NOW()ORDER BY create_time DESC LIMIT 10;-- 后续页(假设上一页最后一条记录的create_time是'2025-06-20 15:30:00')SELECT * FROM ordersWHERE create_time < '2025-06-20 15:30:00'ORDER BY create_time DESC LIMIT 10;
技术要点:
通过上一页的最后一条记录作为游标锚点
完美利用(create_time)索引的有序性
无论查询第1页还是第100万页,响应时间都<100ms
业务适配:
需要前端配合传递last_record_value
不支持随机跳页(但符合现代APP无限滚动交互)
四、终极方案:分库分表+二级索引
当数据量达到亿级时,阿里云实际采用的架构:
按订单ID哈希分16个库
单独维护(user_id, create_time)的映射关系
先查索引表获取目标记录的主键ID
再通过ID路由到具体分片查询完整数据
// 伪代码示例List<Long> ids = indexTable.query("WHERE user_id=? ORDER BY create_time DESC", userId);List<Order> orders = shardingService.batchGetByIds(ids);
五、面试加分项:异常情况处理
有经验的候选人会补充:
当游标超过阈值时,触发异步导出
如何处理新增数据导致的分页跳动(采用稳定字段如ID而非时间)
热门查询结果预加载到Redis
六、总结:分页优化的技术演进

面试建议:回答时要展示出对问题理解的深度和广度,从简单方案引出复杂场景的解决方案,这正是阿里面试官最看重的技术纵深能力。
大家在实际业务中如何处理大数据分页?欢迎在评论区分享你的实战经验!
如果字段的最大可能长度超过255字节,那么长度值可能…
只能说作者太用心了,优秀
感谢详解
一般干个7-8年(即30岁左右),能做到年入40w-50w;有…
230721