- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
牛批!一张6000w数据表的查询优化到0.023s
表空间和数据量如下图:
实现思路
实现做法流程,如图:
实现伪代码(删减了部分代码):
?/**?????*?转移数据?每天凌晨3点?每次只能转移一天的数据?????*/????@Scheduled(cron?=?0?0?3?*?*??)????public?void?dataTransfer()throws?Exception{????????System.out.println(定时器开头运转------------------------------------------);????????String?tabaleName?=?XXX;????????String?isTable?=?getTableName(tabaleName);?????????//?当前往为空时,代表该表不存在,则创建?????????if(ObjectUtils.isNull(isTable)){?????????????????createHistoryDate(names);?????????}?????????//?得到最远的时间段????????Map?orderTime?=?orderByTime();????????//?得到开头和结束时间????????if(SysFun.isNotEmpty(orderTime)??orderTime.size()??0){????????????orderTime.put(startTime,startTime);????????????orderTime.put(endTime,endTime);????????????orderTime.put(tableName,tabaleName);????????????int?i=0;????????????for?(;;)?{????????????????System.out.println(进入循环);????????????????//?转移数据????????????????int?rst?=??dataTransfer(orderTime);????????????????//?删除反复数据????????????????int?delt?=?deleteDataTransfer(orderTime);????????????????//?当今日数据转移完成时,退出本次循环????????????????if(rst=0??delt?=0){????????????????????break;????????????????}????????????????i++;????????????????System.out.println(转移数据表为:+tabaleName+?转移数据次数:?+i);????????????}????????}?????????System.out.println(定时器结束运转------------------------------------------);????}
心路历程
方法完成之后,上周五去服务器正式实测,实测时方法用 @PostConstruct 修饰,会在服务器加载 Servlet 的时候运转,并且只会被服务器执行一次。
当时把握台打印:(“定时器开头运转”)卡住,去库中看到表已成功创建。
开头以为是某个地方特别了,后面逐一打印步骤发觉是得到最远时间段是卡住了,也就是被一条 SQL 查询卡住了(直接用这条 SQL 去库里查询 300s+ 也没查询出来)。
然后维护这个库的小伙跟我说:要不直接 limit 1 吧,它的插入是依据时间挨次插入的,当时也想到了会出问题,时间挨次确定不行能完全依据挨次写入。
周末程序走了 2 天果真有问题,如图:
limit 1 是行不通了,那就只能来查询优化了,讲查询优化之前,先说说为什么我们使用?ORDER BY?为什么会这么慢?
深化分析
MySQL 有两种方式可以实现 ORDER BY 这里只做简约引见:
①通过索引扫描生成有序的结果 举个例子。
假设 history 表有 id 字段上有主键索引,且 id 目前的范围在 1001-1006 之间,则 id 的索引 B+Tree 如下:
现在当我们想依据 id 从小到大的挨次中取出数据时,执行以下 SQL:
????select?*?from?history?order?by?id
MySQL 会直接遍历上图 id 索引的叶子节点链表,不需要进行额外的排序操作。这就是用索引扫描来排序。
②使用文件排序(filesort)
但假如 id 字段没有任何索引,上图的 B+Tree
文档评论(0)