自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

這樣做數(shù)據(jù)清理,可以避免引發(fā)MySQL故障

數(shù)據(jù)庫 MySQL
下面我就跟大家分享一個因清理機制失效引發(fā)數(shù)據(jù)庫故障的案例,并且給出如何通過分區(qū)表和存儲過程進(jìn)行數(shù)據(jù)清理的工程方案。

通常來說,性能監(jiān)控類業(yè)務(wù)場景具有數(shù)據(jù)導(dǎo)入量大、表空間增長快的特點,為了避免磁盤空間被占滿,并提高SQL執(zhí)行效率,要定期對歷史數(shù)據(jù)進(jìn)行清理。根據(jù)數(shù)據(jù)采集頻率和保留周期的不同,可在應(yīng)用程序中植入不同的定時器用于刪除歷史數(shù)據(jù)。在業(yè)務(wù)上線初期,這種簡單的定時清理機制是有效的,但隨著業(yè)務(wù)增長,特別是當(dāng)有數(shù)據(jù)激增的情況發(fā)生時,上述定時器有很大機率會失效,不僅無法清理數(shù)據(jù),還會因事務(wù)長時間持有表鎖,引起數(shù)據(jù)庫阻塞和流控。

[[246010]]

下面我就跟大家分享一個因清理機制失效引發(fā)數(shù)據(jù)庫故障的案例,并且給出如何通過分區(qū)表和存儲過程進(jìn)行數(shù)據(jù)清理的工程方案。

一、問題回顧

今年年初我們生產(chǎn)環(huán)境曾短暫發(fā)生云監(jiān)控系統(tǒng)故障。經(jīng)排查故障是由OP應(yīng)用程序定期在性能庫刪除數(shù)據(jù)引起的,具體原因是delete事務(wù)過大超出PXC集群同步復(fù)制寫入集,該事務(wù)在本地邏輯提交后,無法在集群另外兩個節(jié)點同步,最終在本地回滾。因持有表鎖時間過長,阻塞大量線程觸發(fā)System Lock,引起數(shù)據(jù)庫流控,最終導(dǎo)致華北節(jié)點云監(jiān)控數(shù)據(jù)更新緩慢。

下面介紹下故障排查的過程:

1. Zabbix發(fā)出告警通知

Zabbix發(fā)出告警通知:“華北節(jié)點OP性能庫內(nèi)存利用率超過80%”,時間為:2018/02/27 06:14:05。

這樣做數(shù)據(jù)清理,可以避免引發(fā)MySQL故障

注:OP 是“移動云”門戶系統(tǒng)簡稱;OP性能庫用于存放用戶訂購云產(chǎn)品的性能數(shù)據(jù),架構(gòu)類型為3節(jié)點的PXC多主集群架構(gòu)。

登錄數(shù)據(jù)庫查看,發(fā)現(xiàn)等待執(zhí)行的線程數(shù)量激增,數(shù)據(jù)庫已處于流控狀態(tài)。引發(fā)數(shù)據(jù)庫阻塞的SQL語句為:

  1. DELETE FROM perf_biz_vm WHERE '2018-02-25 02:00:00'>CREATE_TIME 

該語句由OP應(yīng)用程序發(fā)起,用于刪除perf_biz_vm表兩天前的歷史數(shù)據(jù),故障發(fā)生時執(zhí)行時間已超過4個小時,看執(zhí)行計劃預(yù)計刪除2億行數(shù)據(jù)。

最終該語句沒有執(zhí)行成功,并引發(fā)數(shù)據(jù)庫流控。

2. 故障發(fā)生的機理

這里我們結(jié)合Galera Cluster復(fù)制原理具體分析一下故障發(fā)生的機理。

首先,Galera集群節(jié)點間同步復(fù)制,主要基于廣播write set和事務(wù)驗證來實現(xiàn)多節(jié)點同時commit、沖突事務(wù)回滾等功能。

此外,事務(wù)在本地節(jié)點執(zhí)行時采取樂觀策略,成功廣播到所有節(jié)點后再做沖突檢測,當(dāng)檢測出沖突時,本地事務(wù)優(yōu)先被回滾。如果沒有檢測到?jīng)_突,每個節(jié)點將獨立、異步去執(zhí)行隊列中的write set。

最后,事務(wù)在本地節(jié)點執(zhí)行成功返回客戶端后,其他節(jié)點保證該事務(wù)一定會被執(zhí)行,Galera復(fù)制的架構(gòu)圖如下:

根據(jù)Galera復(fù)制原理,刪除事務(wù)在本地節(jié)點提交成功時,本地節(jié)點把事務(wù)通過write set復(fù)制到集群另外兩個節(jié)點,之后各個節(jié)點獨立異步地進(jìn)行certification test,由于要刪除的數(shù)據(jù)量非常大,該事務(wù)已超過同步復(fù)制寫入集(生產(chǎn)環(huán)境中write set設(shè)定值為1G),因此,本地節(jié)點無法得到certification信息,事務(wù)并沒有插入待執(zhí)行隊列進(jìn)行物理提交,而是在本地優(yōu)先被回滾。

錯誤日志如下:

因事務(wù)長時間持有perf_bix_vm表的X鎖,導(dǎo)致本地節(jié)點云主機監(jiān)控數(shù)據(jù)無法入庫,隨著等待線程的累積,本地節(jié)點執(zhí)行隊列會越積越長,觸發(fā)了PXC集群Flow Control機制。

該機制用于保證集群所有節(jié)點執(zhí)行事務(wù)的速度大于隊列增長速度,從而避免慢節(jié)點丟失事務(wù),實現(xiàn)原理是集群中同時只有一個節(jié)點可以廣播消息,每個節(jié)點都會獲得廣播消息的機會,當(dāng)慢節(jié)點的執(zhí)行隊列超過一定長度后,它會廣播一個FC_PAUSE消息,其他節(jié)點收到消息后會暫緩廣播消息,隨著慢節(jié)點(本地節(jié)點)事務(wù)完成回滾,直到該慢節(jié)點的執(zhí)行隊列長度減少到一定程度后,Galera集群數(shù)據(jù)同步又開始恢復(fù),流控解除。

3. 導(dǎo)致故障的其它因素

OP性能庫發(fā)生流控時,本地節(jié)點“DELETE FROM perf_biz_vm WHERE '2018-02-25 02:00:00'>CREATE_TIME”語句執(zhí)行占滿了Buffer Pool(即生產(chǎn)環(huán)境innodb_buffer_ pool_size=128G),加上數(shù)據(jù)庫本身正常運行占用的內(nèi)存,使系統(tǒng)內(nèi)存占用率超過80%預(yù)警值,此時打開華北節(jié)點OP控制臺,可以看到云監(jiān)控數(shù)據(jù)更新緩慢:

這樣做數(shù)據(jù)清理,可以避免引發(fā)MySQL故障

4. 重建數(shù)據(jù)清理機制

截止到2月28日,歷史數(shù)據(jù)清理機制失效,導(dǎo)致業(yè)務(wù)表單表數(shù)據(jù)量高達(dá)250G,數(shù)據(jù)庫存儲空間嚴(yán)重不足,急需擴(kuò)容。為消除數(shù)據(jù)庫安全隱患、釋放磁盤空間,我們決定在數(shù)據(jù)庫側(cè)使用分區(qū)表+存儲過程+事件的方案重建數(shù)據(jù)清理機制。

二、重建清理機制

通過分析上述故障案例,我們決定基于分區(qū)表和存儲過程建立一種安全、穩(wěn)健、高效的數(shù)據(jù)庫清理機制。

通過查看執(zhí)行計劃可以看到,用Delete語句刪除數(shù)據(jù),即使在命中索引的情況下,執(zhí)行效率也是很低的,而且容易觸發(fā)System lock。因此,根本解決大表數(shù)據(jù)清理問題要引入分區(qū)表,刪除數(shù)據(jù)不再執(zhí)行DML操作,而是直接drop掉早期分區(qū)表(DDL)。

因為執(zhí)行Delete操作時write set記錄每行信息,執(zhí)行drop操作write set只是記錄表物理存放位置、表結(jié)構(gòu)以及所依賴的約束、觸發(fā)器、索引和存儲過程等,當(dāng)表的數(shù)據(jù)量很大時,采用drop操作要快幾個數(shù)量級。

分區(qū)表的另一個好處是對于應(yīng)用程序來說不用修改代碼,通過對后端數(shù)據(jù)庫進(jìn)行設(shè)置,以表的時間字段做分區(qū)字段,就可以輕松實現(xiàn)表的拆分,需要注意的是查詢字段必須是分區(qū)鍵,否則會遍歷所有的分區(qū)表,下面看一下具體的實施過程:

Step 1:首先,創(chuàng)建分區(qū)表。在這里我們就以perf_biz_vm表為例,創(chuàng)建相同表結(jié)構(gòu)的新表,并把它命名為perf_biz_vm_new,利用create_time索引字段做分區(qū)字段,按天做分區(qū)并與主鍵一起創(chuàng)建聯(lián)合索引,創(chuàng)建語句:

代碼如下:

  1. CREATE TABLE `perf_biz_vm_new` ( 
  2.  
  3. `CREATE_TIME` datetime NOT COMMENT '性能采集時間', 
  4.  
  5. `VM_ID` varchar(80) NOT COMMENT '虛擬機ID', 
  6.  
  7. `PROCESSOR_USED` varchar(100) DEFAULT COMMENT 'CPU利用率(%)', 
  8.  
  9. `MEM_USED` varchar(100) DEFAULT COMMENT '內(nèi)存的使用率(%)', 
  10.  
  11. `MEM_UTILITY` varchar(100) DEFAULT COMMENT '可用內(nèi)存量(bytes)', 
  12.  
  13. `BYTES_IN` varchar(100) DEFAULT COMMENT '流入流量速率(Mbps)', 
  14.  
  15. `BYTES_OUT` varchar(100) DEFAULT COMMENT '流出流量速率(Mbps)', 
  16.  
  17. `PROC_RUN` varchar(100) DEFAULT COMMENT 'CPU運行隊列中進(jìn)程個數(shù)', 
  18.  
  19. `WRITE_IO` varchar(100) DEFAULT COMMENT '虛擬磁盤寫入速率(Mb/s)', 
  20.  
  21. `READ_IO` varchar(100) DEFAULT COMMENT '虛擬磁盤讀取速率(Mb/s)', 
  22.  
  23. `PID` varchar(36) NOT , 
  24.  
  25. PRIMARY KEY (`PID`,`CREATE_TIME`), 
  26.  
  27. KEY `mytable_categoryid` (`CREATE_TIME`) USING BTREE, 
  28.  
  29. KEY `perf_biz_vm_vm_id_create_time` (`VM_ID`,`CREATE_TIME`) 
  30.  
  31. ENGINE=InnoDB DEFAULT CHARSET=utf8 COMMENT='虛擬機性能采集表' 
  32.  
  33. /*!50500 PARTITION BY RANGE COLUMNS(CREATE_TIME) 
  34.  
  35. (PARTITION p20180225 VALUES LESS THAN ('20180226') ENGINE = InnoDB
  36.  
  37. PARTITION p20180226 VALUES LESS THAN ('20180227') ENGINE = InnoDB
  38.  
  39. PARTITION p20180227 VALUES LESS THAN ('20180228') ENGINE = InnoDB
  40.  
  41. PARTITION p20180228 VALUES LESS THAN ('20180229') ENGINE = InnoDB
  42.  
  43. PARTITION p20180229 VALUES LESS THAN ('20180230') ENGINE = InnoDB) */ 

Step 2:用新的分區(qū)表替換原有舊表。這里需要注意的是,執(zhí)行rename操作會對perf_biz_vm表的元數(shù)據(jù)進(jìn)行修改,需提前檢查有無對此表的Delete、Update、Insert事務(wù)與DDL操作,否則沖突會產(chǎn)生元數(shù)據(jù)鎖(Metadata Lock)。

我們的做法是提前將業(yè)務(wù)側(cè)的定時器停掉,并在業(yè)務(wù)低谷時執(zhí)行如下語句,將舊表和新表通過rename的方式互換,讓新表納入使用。期間若有業(yè)務(wù)調(diào)用,則會短暫斷開業(yè)務(wù)。

  1. rename table perf_biz_vm to perf_biz_vm_old; 
  2. rename table perf_biz_vm_new to perf_biz_vm; 

Step 3:查看到新表有數(shù)據(jù)寫入,云監(jiān)控頁面數(shù)據(jù)顯示正常,說明業(yè)務(wù)恢復(fù)。云主機監(jiān)控數(shù)據(jù)的保存周期是兩天,因此需要將舊表兩天前的數(shù)據(jù)拷貝到新表,該步驟通過腳本來完成,可參考以下腳本:

代碼如下:

  1. #!/bin/bash  
  2. function insert{  
  3. end_time="$1 $2"  
  4. start_time="$3 $4"  
  5. mysql -u'user' -p'passwd' << !  
  6. use monitor_alarm_openstack;  
  7. set innodb_flush_log_at_trx_commit=0 
  8. start transaction;  
  9. insert into perf_biz_vm select * from perf_biz_vm_old where create_time < '$end_time' and create_time > '$start_time';  
  10. commit;  
  11. select TABLE_ROWS from information_schema.tables where TABLE_SCHEMA ="monitor_alarm" and TABLE_NAME="perf_biz_vm" 
  12.  
  13.  
  14. base_time="2018-02-27 2:00:00"  
  15. while true  
  16. do  
  17. #end_time=$(date -d "-1hour $base_time" +%Y-%m-%d" "%H:%M:%S)  
  18. end_time=$base_time  
  19. start_time=$(date -d "-1hour $end_time" +%Y-%m-%d" "%H:%M:%S)  
  20. #base_time=$end_time  
  21. base_time=$start_time  
  22. echo "Cur_time: $(date +%Y%m%d" "%H%M%S)" | tee -a 1.log  
  23. echo "Range: $end_time $start_time" | tee -a 1.log  
  24. insert ${end_time} ${start_time} | tee -a 1.log  
  25. sleep 2  
  26. done 

Step 4:編寫存儲過程用于定期創(chuàng)建新的分區(qū),并刪除幾天前舊的分區(qū):

代碼如下:

  1. delimiter $$  
  2. CREATE PROCEDURE `clean_partiton`(SCHEMANAME VARCHAR(64), TABLENAME VARCHAR(64),reserve INT)  
  3. BEGIN 

注:

  • 該儲存過程適用于分區(qū)字段類型為datetime,按天分區(qū)且命名為p20180301格式規(guī)范的分區(qū)表
  • 獲取最舊一個分區(qū),判斷是否為reserve天前分區(qū),是則進(jìn)行刪除,每次只刪除一個分區(qū)
  • 提前創(chuàng)建14天分區(qū),判斷命名不重復(fù)則創(chuàng)建
  • 創(chuàng)建 history_partition 表,varchar(200)和datetime類型。記錄執(zhí)行成功的SQL語句
  1. DECLARE PARTITION_NAMES VARCHAR(16);  
  2. DECLARE OLD_PARTITION_NAMES VARCHAR(16);  
  3. DECLARE LESS_THAN_TIMES varchar(16);  
  4. DECLARE CUR_TIME INT;  
  5. DECLARE RETROWS INT;  
  6. DECLARE DROP_PARTITION VARCHAR(16);  
  7. SET CUR_TIME = DATE_FORMAT(NOW,'%Y%m%d');  
  8. BEGIN  
  9. SELECT PARTITION_NAME INTO DROP_PARTITION FROM information_schema.partitions WHERE table_schema = SCHEMANAME AND table_name = TABLENAME order by PARTITION_ORDINAL_POSITION asc limit 1 ;  
  10. IF SUBSTRING(DROP_PARTITION,2) < DATE_FORMAT(CUR_TIME - INTERVAL reserve DAY, '%Y%m%d') THEN  
  11. SET @sql = CONCAT( 'ALTER TABLE ', SCHEMANAME, '.', TABLENAME, ' drop PARTITION ', DROP_PARTITION, ';' );  
  12. PREPARE STMT FROM @sql;  
  13. EXECUTE STMT;  
  14. DEALLOCATE PREPARE STMT;  
  15. INSERT INTO history_partition VALUES (@sql, now);  
  16. END IF;  
  17. end;  
  18. SET @__interval = 1 
  19. create_loop: LOOP  
  20. IF @__interval > 15 THEN  
  21. LEAVE create_loop;  
  22. END IF;  
  23. SET LESS_THAN_TIMES = DATE_FORMAT(CUR_TIME + INTERVAL @__interval DAY, '%Y%m%d');  
  24. SET PARTITION_NAMES = DATE_FORMAT(CUR_TIME + INTERVAL @__interval -1 DAY, 'p%Y%m%d');  
  25. IF(PARTITION_NAMES != OLD_PARTITION_NAMES) THEN  
  26. SELECT COUNT(1) INTO RETROWS FROM information_schema.partitions WHERE table_schema = SCHEMANAME AND table_name = TABLENAME AND LESS_THAN_TIMES <= substring(partition_description,2,8) ;  
  27. IF RETROWS = 0 THEN  
  28. SET @sql = CONCAT( 'ALTER TABLE ', SCHEMANAME, '.', TABLENAME, ' ADD PARTITION (PARTITION ', PARTITION_NAMES, ' VALUES LESS THAN ( "',LESS_THAN_TIMES, '" ));' );  
  29. SET @__interval=@__interval+1;  
  30. SET OLD_PARTITION_NAMES = PARTITION_NAMES;  
  31. END LOOP;  
  32. END  
  33. $$  
  34. delimiter ; 

Step 5:創(chuàng)建名稱為clean_perf_biz_vm的事件,并在每天凌晨00:30:00的時候調(diào)用clean_partition存儲過程創(chuàng)建下一個新分區(qū),并刪除兩天前的舊分區(qū)。

  1. delimiter | 
  2.  
  3. CREATE DEFINER=’root’@’localhost’ event clean_perf_biz_vm on schedule every 1 day starts DATE_ADD(DATE_ADD(CURDATE,INTERVAL 1 DAY),INTERVAL 30 MINUTE) 
  4.  
  5. ON COMPLETION PRESERVE 
  6.  
  7. do 
  8.  
  9. begin 
  10.  
  11. call clean_partition(‘monitor_alarm’,’perf_biz_vm’,’2’); 
  12.  
  13. end | 
  14.  
  15. delimiter; 

Step 6:處理perf_biz_vm_old舊表,在業(yè)務(wù)低谷期執(zhí)行如下操作:drop table if exists perf_biz_vm_old,Drop掉整張舊表的時間約為3min,并釋放了150G的磁盤空間。需要注意的是,雖然drop table的時間較短,仍會產(chǎn)生短暫的阻塞,因為drop table觸發(fā)的是實例鎖,因此需要在業(yè)務(wù)低谷期進(jìn)行操作,并實時觀察數(shù)據(jù)庫情況。

這樣做數(shù)據(jù)清理,可以避免引發(fā)MySQL故障

從下圖可以看到,實際drop過程中記錄到的等待接收隊列的長度瞬時值為169,最高達(dá)到202:

這樣做數(shù)據(jù)清理,可以避免引發(fā)MySQL故障

至此,改造全部完成,我們已在數(shù)據(jù)庫側(cè)建立起安全、穩(wěn)健、高效的數(shù)據(jù)清理機制。

三、結(jié)語

雖然本方案強調(diào)了存儲過程的使用,但上述存儲過程是基于簡單的create和drop操作,并沒有涉及復(fù)雜的邏輯和計算。MySQL是OLTP應(yīng)用,最擅長的還是增、刪、查、改這樣簡單的操作,對邏輯計算分析類的應(yīng)用并不適合,所以盡量避免使用復(fù)雜的存儲過程。

當(dāng)然,也并不是所有場景都適合使用分區(qū)表,在很多DBA看來分區(qū)表在某些場景下是禁止使用的,一般會采用切表的形式進(jìn)行拆分,本方案中使用時間做分區(qū)字段,應(yīng)用程序中查詢語句基本都能命中分區(qū),對于Select、Insert等語句的執(zhí)行性能是有所提升的。

責(zé)任編輯:趙寧寧 來源: 今日頭條
相關(guān)推薦

2021-07-05 06:51:43

流程代碼結(jié)構(gòu)

2022-05-10 10:39:51

初創(chuàng)企業(yè)技術(shù)債務(wù)

2015-02-11 10:00:15

2022-07-20 23:08:55

互聯(lián)網(wǎng)業(yè)務(wù)EDAC設(shè)備故障

2020-03-06 10:35:35

數(shù)據(jù)中心能耗能源

2021-11-14 15:13:18

存儲數(shù)據(jù)存儲技術(shù)

2025-02-05 11:30:00

單點故障MySQL數(shù)據(jù)庫

2023-02-20 13:29:31

2020-04-14 15:20:18

JSIF代碼

2020-03-30 08:27:24

信息安全網(wǎng)絡(luò)安全培訓(xùn)

2021-12-13 01:24:14

語言Golang panic

2022-09-15 08:41:16

數(shù)據(jù)異構(gòu)分庫分表

2017-09-13 08:34:48

2012-05-17 12:05:40

HTC

2023-06-02 07:25:48

風(fēng)險預(yù)警架構(gòu)

2015-07-10 11:18:19

2009-05-13 11:13:07

MySQL定位性能故障

2015-07-14 10:21:58

2020-02-11 12:06:26

物聯(lián)網(wǎng)技術(shù)廢物管理IOT

2009-11-02 15:17:33

點贊
收藏

51CTO技術(shù)棧公眾號