自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

大意了,1次億級數(shù)據(jù)分頁優(yōu)化搞了半夜!

數(shù)據(jù)庫 MySQL
一日晚上 10 點半,下班后愉快的坐在在回家的地鐵上,心里想著周末的生活怎么安排。

 [[387777]]

圖片來自 Pexels 

突然電話響了起來,一看是我們的一個開發(fā)同學,頓時緊張了起來,本周的版本已經(jīng)發(fā)布過了,這時候打電話一般來說是線上出問題了。

果然,溝通的情況是線上的一個查詢數(shù)據(jù)的接口被瘋狂的失去理智般的調(diào)用,這個操作直接導(dǎo)致線上的 MySQL 集群被拖慢了。

好吧,這問題算是嚴重了,下了地鐵匆匆趕到家,開電腦,跟同事把 Pinpoint 上的慢查詢?nèi)罩緭瞥鰜怼?/p>

看到一個很奇怪的查詢,如下:

  1. POST  domain/v1.0/module/method?order=condition&orderType=desc&offset=1800000&limit=500 

domain、module 和 method 都是化名,代表接口的域、模塊和實例方法名,后面的 offset 和 limit 代表分頁操作的偏移量和每頁的數(shù)量。

也就是說該同學是在翻第(1800000/500+1=3601)頁。初步撈了一下日志,發(fā)現(xiàn)有 8000 多次這樣調(diào)用。

這太神奇了,而且我們頁面上的分頁單頁數(shù)量也不是 500,而是 25 條每頁,這個絕對不是人為的在功能頁面上進行一頁一頁的翻頁操作,而是數(shù)據(jù)被刷了(說明下,我們生產(chǎn)環(huán)境數(shù)據(jù)有 1 億+)。

詳細對比日志發(fā)現(xiàn),很多分頁的時間是重疊的,對方應(yīng)該是多線程調(diào)用。

通過對鑒權(quán)的 Token 的分析,基本定位了請求是來自一個叫做 ApiAutotest 的客戶端程序在做這個操作,也定位了生成鑒權(quán) Token 的賬號來自一個 QA 的同學。立馬打電話給同學,進行了溝通和處理。

分析

其實對于我們的 MySQL 查詢語句來說,整體效率還是可以的,該有的聯(lián)表查詢優(yōu)化都有,該簡略的查詢內(nèi)容也有,關(guān)鍵條件字段和排序字段該有的索引也都在。

問題在于他一頁一頁的分頁去查詢,查到越后面的頁數(shù),掃描到的數(shù)據(jù)越多,也就越慢。

我們在查看前幾頁的時候,發(fā)現(xiàn)速度非???,比如 limit 200,25,瞬間就出來了。

但是越往后,速度就越慢,特別是百萬條之后,卡到不行,那這個是什么原理呢。

先看一下我們翻頁翻到后面時,查詢的 SQL 是怎樣的:

  1. select * from t_name where c_name1='xxx' order by c_name2 limit 2000000,25; 

這種查詢的慢,其實是因為 limit 后面的偏移量太大導(dǎo)致的。比如像上面的 limit 2000000,25。

這個等同于數(shù)據(jù)庫要掃描出 2000025 條數(shù)據(jù),然后再丟棄前面的 20000000 條數(shù)據(jù),返回剩下 25 條數(shù)據(jù)給用戶,這種取法明顯不合理。

 

大家翻看《高性能 MySQL》第六章“查詢性能優(yōu)化”,對這個問題有過說明:

分頁操作通常會使用 limit 加上偏移量的辦法實現(xiàn),同時再加上合適的 order by 子句。但這會出現(xiàn)一個常見問題:當偏移量非常大的時候,它會導(dǎo)致 MySQL 掃描大量不需要的行然后再拋棄掉。

數(shù)據(jù)模擬

那好,了解了問題的原理,那就要試著解決它了。涉及數(shù)據(jù)敏感性,我們這邊模擬一下這種情況,構(gòu)造一些數(shù)據(jù)來做測試。

①創(chuàng)建兩個表:員工表和部門表。

  1. /*部門表,存在則進行刪除 */ 
  2. drop table if EXISTS dep; 
  3. create table dep( 
  4.     id int unsigned primary key auto_increment, 
  5.     depno mediumint unsigned not null default 0, 
  6.     depname varchar(20) not null default ""
  7.     memo varchar(200) not null default "" 
  8. ); 
  9.  
  10. /*員工表,存在則進行刪除*/ 
  11. drop table if EXISTS emp; 
  12. create table emp( 
  13.     id int unsigned primary key auto_increment, 
  14.     empno mediumint unsigned not null default 0, 
  15.     empname varchar(20) not null default ""
  16.     job varchar(9) not null default ""
  17.     mgr mediumint unsigned not null default 0, 
  18.     hiredate datetime not null
  19.     sal decimal(7,2) not null
  20.     comn decimal(7,2) not null
  21.     depno mediumint unsigned not null default 0 
  22. ); 

②創(chuàng)建兩個函數(shù):生成隨機字符串和隨機編號。

  1. /* 產(chǎn)生隨機字符串的函數(shù)*/ 
  2. DELIMITER $ 
  3. drop FUNCTION if EXISTS rand_string; 
  4. CREATE FUNCTION rand_string(n INTRETURNS VARCHAR(255) 
  5. BEGIN 
  6.     DECLARE chars_str VARCHAR(100) DEFAULT 'abcdefghijklmlopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ'
  7.     DECLARE return_str VARCHAR(255) DEFAULT ''
  8.     DECLARE i INT DEFAULT 0; 
  9.     WHILE i < n DO 
  10.     SET return_str = CONCAT(return_str,SUBSTRING(chars_str,FLOOR(1+RAND()*52),1)); 
  11.     SET i = i+1; 
  12.     END WHILE; 
  13.     RETURN return_str; 
  14. END $ 
  15. DELIMITER; 
  16.  
  17.  
  18. /*產(chǎn)生隨機部門編號的函數(shù)*/ 
  19. DELIMITER $ 
  20. drop FUNCTION if EXISTS rand_num; 
  21. CREATE FUNCTION rand_num() RETURNS INT(5) 
  22. BEGIN 
  23.     DECLARE i INT DEFAULT 0; 
  24.     SET i = FLOOR(100+RAND()*10); 
  25.     RETURN i; 
  26. END $ 
  27. DELIMITER; 

③編寫存儲過程,模擬 500W 的員工數(shù)據(jù)。

  1. /*建立存儲過程:往emp表中插入數(shù)據(jù)*/ 
  2. DELIMITER $ 
  3. drop PROCEDURE if EXISTS insert_emp; 
  4. CREATE PROCEDURE insert_emp(IN START INT(10),IN max_num INT(10)) 
  5. BEGIN 
  6.     DECLARE i INT DEFAULT 0; 
  7.     /*set autocommit =0 把autocommit設(shè)置成0,把默認提交關(guān)閉*/ 
  8.     SET autocommit = 0; 
  9.     REPEAT 
  10.     SET i = i + 1; 
  11.     INSERT INTO emp(empno,empname,job,mgr,hiredate,sal,comn,depno) VALUES ((START+i),rand_string(6),'SALEMAN',0001,now(),2000,400,rand_num()); 
  12.     UNTIL i = max_num 
  13.     END REPEAT; 
  14.     COMMIT
  15. END $ 
  16. DELIMITER; 
  17. /*插入500W條數(shù)據(jù)*/ 
  18. call insert_emp(0,5000000); 

④編寫存儲過程,模擬 120 的部門數(shù)據(jù)。

  1. /*建立存儲過程:往dep表中插入數(shù)據(jù)*/ 
  2. DELIMITER $ 
  3. drop PROCEDURE if EXISTS insert_dept; 
  4. CREATE PROCEDURE insert_dept(IN START INT(10),IN max_num INT(10)) 
  5. BEGIN 
  6.     DECLARE i INT DEFAULT 0; 
  7.     SET autocommit = 0; 
  8.     REPEAT 
  9.     SET i = i+1; 
  10.     INSERT  INTO dep( depno,depname,memo) VALUES((START+i),rand_string(10),rand_string(8)); 
  11.     UNTIL i = max_num 
  12.     END REPEAT; 
  13.     COMMIT
  14. END $ 
  15. DELIMITER; 
  16. /*插入120條數(shù)據(jù)*/ 
  17. call insert_dept(1,120); 

⑤建立關(guān)鍵字段的索引,這邊是跑完數(shù)據(jù)之后再建索引,會導(dǎo)致建索引耗時長,但是跑數(shù)據(jù)就會快一些。

  1. /*建立關(guān)鍵字段的索引:排序、條件*/ 
  2. CREATE INDEX idx_emp_id ON emp(id); 
  3. CREATE INDEX idx_emp_depno ON emp(depno); 
  4. CREATE INDEX idx_dep_depno ON dep(depno); 

測試

測試數(shù)據(jù):

  1. /*偏移量為100,取25*/ 
  2. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  3. from emp a left join dep b on a.depno = b.depno order by a.id desc limit 100,25; 
  4. /*偏移量為4800000,取25*/ 
  5. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  6. from emp a left join dep b on a.depno = b.depno order by a.id desc limit 4800000,25; 

執(zhí)行結(jié)果:

  1. [SQL] 
  2. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  3. from emp a left join dep b on a.depno = b.depno order by a.id desc limit 100,25; 
  4. 受影響的行: 0 
  5. 時間: 0.001s 
  6. [SQL] 
  7. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  8. from emp a left join dep b on a.depno = b.depno order by a.id desc limit 4800000,25; 
  9. 受影響的行: 0 
  10. 時間: 12.275s 

因為掃描的數(shù)據(jù)多,所以這個明顯不是一個量級上的耗時。

解決方案

①使用索引覆蓋+子查詢優(yōu)化

因為我們有主鍵 id,并且在上面建了索引,所以可以先在索引樹中找到開始位置的 id 值,再根據(jù)找到的 id 值查詢行數(shù)據(jù)。

  1. /*子查詢獲取偏移100條的位置的id,在這個位置上往后取25*/ 
  2. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  3. from emp a left join dep b on a.depno = b.depno 
  4. where a.id >= (select id from emp order by id limit 100,1) 
  5. order by a.id limit 25; 
  6.  
  7. /*子查詢獲取偏移4800000條的位置的id,在這個位置上往后取25*/ 
  8. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  9. from emp a left join dep b on a.depno = b.depno 
  10. where a.id >= (select id from emp order by id limit 4800000,1) 
  11. order by a.id limit 25; 

執(zhí)行結(jié)果,執(zhí)行效率相比之前有大幅的提升:

  1. [SQL] 
  2. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  3. from emp a left join dep b on a.depno = b.depno 
  4. where a.id >= (select id from emp order by id limit 100,1) 
  5. order by a.id limit 25; 
  6. 受影響的行: 0 
  7. 時間: 0.106s 
  8.  
  9. [SQL] 
  10. SELECT a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  11. from emp a left join dep b on a.depno = b.depno 
  12. where a.id >= (select id from emp order by id limit 4800000,1) 
  13. order by a.id limit 25; 
  14. 受影響的行: 0 
  15. 時間: 1.541s 

②起始位置重定義

記住上次查找結(jié)果的主鍵位置,避免使用偏移量 offset:

  1. /*記住了上次的分頁的最后一條數(shù)據(jù)的id是100,這邊就直接跳過100,從101開始掃描表*/ 
  2. SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  3. from emp a left join dep b on a.depno = b.depno 
  4. where a.id > 100 order by a.id limit 25; 
  5.  
  6. /*記住了上次的分頁的最后一條數(shù)據(jù)的id是4800000,這邊就直接跳過4800000,從4800001開始掃描表*/ 
  7. SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  8. from emp a left join dep b on a.depno = b.depno 
  9. where a.id > 4800000 
  10. order by a.id limit 25; 

執(zhí)行結(jié)果:

  1. [SQL] 
  2. SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  3. from emp a left join dep b on a.depno = b.depno 
  4. where a.id > 100 order by a.id limit 25; 
  5. 受影響的行: 0 
  6. 時間: 0.001s 
  7.  
  8. [SQL] 
  9. SELECT a.id,a.empno,a.empname,a.job,a.sal,b.depno,b.depname 
  10. from emp a left join dep b on a.depno = b.depno 
  11. where a.id > 4800000 
  12. order by a.id limit 25; 
  13. 受影響的行: 0 
  14. 時間: 0.000s 

這個效率是最好的,無論怎么分頁,耗時基本都是一致的,因為他執(zhí)行完條件之后,都只掃描了 25 條數(shù)據(jù)。

但是有個問題,只適合一頁一頁的分頁,這樣才能記住前一個分頁的最后 Id。

如果用戶跳著分頁就有問題了,比如剛剛刷完第 25 頁,馬上跳到 35 頁,數(shù)據(jù)就會不對。

這種的適合場景是類似百度搜索或者騰訊新聞那種滾輪往下拉,不斷拉取不斷加載的情況。這種延遲加載會保證數(shù)據(jù)不會跳躍著獲取。

③降級策略

看了網(wǎng)上一個阿里的 DBA 同學分享的方案:配置 limit 的偏移量和獲取數(shù)一個最大值,超過這個最大值,就返回空數(shù)據(jù)。

因為他覺得超過這個值你已經(jīng)不是在分頁了,而是在刷數(shù)據(jù)了,如果確認要找數(shù)據(jù),應(yīng)該輸入合適條件來縮小范圍,而不是一頁一頁分頁。

這個跟我同事的想法大致一樣:request 的時候,如果 offset 大于某個數(shù)值就先返回一個 4xx 的錯誤。

小結(jié)

當晚我們應(yīng)用上述第三個方案,對 offset 做一下限流,超過某個值,就返回空值。第二天使用第一種和第二種配合使用的方案對程序和數(shù)據(jù)庫腳本進一步做了優(yōu)化。

合理來說做任何功能都應(yīng)該考慮極端情況,設(shè)計容量都應(yīng)該涵蓋極端邊界測試。

另外,該有的限流、降級也應(yīng)該考慮進去。比如工具多線程調(diào)用,在短時間頻率內(nèi) 8000 次調(diào)用,可以使用計數(shù)服務(wù)判斷并反饋用戶調(diào)用過于頻繁,直接給予斷掉。

哎,大意了啊,搞了半夜,QA 同學不講武德。不過這是很美好的經(jīng)歷了。

作者:翁智華

編輯:陶家龍

出處:cnblogs.com/wzh2010/p/14316920.html

 

責任編輯:武曉燕 來源: 博客園
相關(guān)推薦

2021-06-29 08:12:22

MySQL數(shù)據(jù)分頁數(shù)據(jù)庫

2021-03-11 10:55:41

MySQL數(shù)據(jù)庫索引

2022-06-06 11:31:31

MySQL數(shù)據(jù)查詢

2019-05-27 09:56:00

數(shù)據(jù)庫高可用架構(gòu)

2024-08-22 14:16:08

2024-04-18 09:00:00

數(shù)據(jù)存儲數(shù)據(jù)庫

2011-03-03 10:32:07

Mongodb億級數(shù)據(jù)量

2019-06-05 14:30:21

MySQL數(shù)據(jù)庫索引

2019-05-28 09:31:05

Elasticsear億級數(shù)據(jù)ES

2022-09-25 22:09:09

大數(shù)據(jù)量技術(shù)HDFS客戶端

2019-03-05 10:16:54

數(shù)據(jù)分區(qū)表SQLserver

2018-04-19 09:10:17

數(shù)據(jù)分析列式存儲

2024-02-19 00:06:06

數(shù)據(jù)分析系統(tǒng)Doris

2022-05-12 14:34:14

京東數(shù)據(jù)

2024-04-07 00:00:00

億級數(shù)據(jù)ES

2024-09-27 08:44:43

2021-06-08 08:51:50

Redis 數(shù)據(jù)類型數(shù)據(jù)統(tǒng)計

2018-12-14 09:32:06

億級數(shù)據(jù)存在

2018-12-14 09:16:31

裝載數(shù)據(jù)數(shù)組

2019-08-28 07:45:45

數(shù)據(jù)存儲層多線程
點贊
收藏

51CTO技術(shù)棧公眾號