頭疼!百萬級MySQL的數(shù)據(jù)量,如何快速完成數(shù)據(jù)遷移?
背景
上個月跟朋友一起做了個微信小程序,趁著5.20節(jié)日的熱度,兩個禮拜內(nèi)迅速積累了一百多萬用戶,我們在小程序頁面增加了收集formid的埋點,用于給微信用戶發(fā)送模板消息通知。
這個小程序一開始的后端邏輯是用douchat框架寫的,使用框架自帶的dc_mp_fans表存儲微信端授權(quán)登錄的用戶信息,使用dc_mp_tempmsg表存儲formid。截止到目前,收集到的數(shù)據(jù)超過380萬,很大一部分formid都已經(jīng)成功使用給用戶發(fā)送過模板通知,起到了較好的二次推廣的效果。
隨著數(shù)據(jù)量的增大,之前使用的服務(wù)器空間開始有點不夠用,最近新寫了一個專門用于做小程序后臺開發(fā)的框架,于是想把原來的數(shù)據(jù)遷移到新系統(tǒng)的數(shù)據(jù)庫。買了一臺4核8G的機器,開始做數(shù)據(jù)遷移。下面對遷移過程做一個簡單的記錄。
img
方案選擇
- mysqldump遷移
平常開發(fā)中,我們比較經(jīng)常使用的數(shù)據(jù)備份遷移方式是用mysqldump工具導(dǎo)出一個sql文件,再在新數(shù)據(jù)庫中導(dǎo)入sql來完成數(shù)據(jù)遷移。試驗發(fā)現(xiàn),通過mysqldump導(dǎo)出百萬級量的數(shù)據(jù)庫成一個sql文件,大概耗時幾分鐘,導(dǎo)出的sql文件大小在1G左右,然后再把這個1G的sql文件通過scp命令復(fù)制到另一臺服務(wù)器,大概也需要耗時幾分鐘。在新服務(wù)器的數(shù)據(jù)庫中通過source命令來導(dǎo)入數(shù)據(jù),我跑了一晚上都沒有把數(shù)據(jù)導(dǎo)入進(jìn)來,cpu跑滿。
- 腳本遷移
直接通過命令行操作數(shù)據(jù)庫進(jìn)行數(shù)據(jù)的導(dǎo)出和導(dǎo)入是比較便捷的方式,但是數(shù)據(jù)量較大的情況下往往會比較耗時,對服務(wù)器性能要求也比較高。如果對數(shù)據(jù)遷移時間要求不是很高,可以嘗試寫腳本來遷移數(shù)據(jù)。雖然沒有實際嘗試,但是我想過大概有兩種腳本方案。
第一種方式,在遷移目標(biāo)服務(wù)器跑一個遷移腳本,遠(yuǎn)程連接源數(shù)據(jù)服務(wù)器的數(shù)據(jù)庫,通過設(shè)置查詢條件,分塊讀取源數(shù)據(jù),并在讀取完之后寫入目標(biāo)數(shù)據(jù)庫。這種遷移方式效率可能會比較低,數(shù)據(jù)導(dǎo)出和導(dǎo)入相當(dāng)于是一個同步的過程,需要等到讀取完了才能寫入。如果查詢條件設(shè)計得合理,也可以通過多線程的方式啟動多個遷移腳本,達(dá)到并行遷移的效果。
第二種方式,可以結(jié)合redis搭建一個“生產(chǎn)+消費”的遷移方案。源數(shù)據(jù)服務(wù)器可以作為數(shù)據(jù)生產(chǎn)者,在源數(shù)據(jù)服務(wù)器上跑一個多線程腳本,并行讀取數(shù)據(jù)庫里面的數(shù)據(jù),并把數(shù)據(jù)寫入到redis隊列。目標(biāo)服務(wù)器作為一個消費者,在目標(biāo)服務(wù)器上也跑一個多線程腳本,遠(yuǎn)程連接redis,并行讀取redis隊列里面的數(shù)據(jù),并把讀取到的數(shù)據(jù)寫入到目標(biāo)數(shù)據(jù)庫。這種方式相對于第一種方式,是一種異步方案,數(shù)據(jù)導(dǎo)入和數(shù)據(jù)導(dǎo)出可以同時進(jìn)行,通過redis做數(shù)據(jù)的中轉(zhuǎn)站,效率會有較大的提升。
可以使用go語言來寫遷移腳本,利用其原生的并發(fā)特性,可以達(dá)到并行遷移數(shù)據(jù)的目的,提升遷移效率。
- 文件遷移
第一種遷移方案效率太低,第二種遷移方案編碼代價較高,通過對比和在網(wǎng)上找的資料分析,我最終選擇了通過mysql的select data into outfile file.txt、load data infile file.txt into table的命令,以導(dǎo)入導(dǎo)出文件的形式完成了百萬級數(shù)據(jù)的遷移。
遷移過程
在源數(shù)據(jù)庫中導(dǎo)出數(shù)據(jù)文件
- select * from dc_mp_fans into outfile '/data/fans.txt';
復(fù)制數(shù)據(jù)文件到目標(biāo)服務(wù)器
- zip fans.zip /data/fans.txtscp fans.zip root@ip:/data/
在目標(biāo)數(shù)據(jù)庫導(dǎo)入文件
- unzip /data/fans.zip
- load data infile '/data/fans.txt' into table wxa_fans(id,appid,openid,unionid,@dummy,created_at,@dummy,nickname,gender,avatar_url,@dummy,@dummy,@dummy,@dummy,language,country,province,city,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy,@dummy);
按照這么幾個步驟操作,幾分鐘內(nèi)就完成了一個百萬級數(shù)據(jù)表的跨服務(wù)器遷移工作。
注意項
mysql安全項設(shè)置
在mysql執(zhí)行l(wèi)oad data infile和into outfile命令都需要在mysql開啟了secure_file_priv選項, 可以通過show global variables like '%secure%';查看mysql是否開啟了此選項,默認(rèn)值Null標(biāo)識不允許執(zhí)行導(dǎo)入導(dǎo)出命令。通過vim /etc/my.cnf修改mysql配置項,將secure_file_priv的值設(shè)置為空:
- [mysqld] secure_file_priv=''
則可通過命令導(dǎo)入導(dǎo)出數(shù)據(jù)文件。
導(dǎo)入導(dǎo)出的數(shù)據(jù)表字段不對應(yīng)
上面示例的從源數(shù)據(jù)庫的dc_mp_fans表遷移數(shù)據(jù)到目標(biāo)數(shù)據(jù)庫的wxa_fans表,兩個數(shù)據(jù)表的字段分別為:- dc_mp_fans
img
wxa_fans
img
在導(dǎo)入數(shù)據(jù)的時候,可以通過設(shè)置字段名來匹配目標(biāo)字段的數(shù)據(jù),可以通過@dummy丟棄掉不需要的目標(biāo)字段數(shù)據(jù)。
總結(jié)
結(jié)合本次數(shù)據(jù)遷移經(jīng)歷,總結(jié)起來就是:小數(shù)據(jù)量可以使用mysqldump命令進(jìn)行導(dǎo)入導(dǎo)出,這種方式簡單便捷。- 數(shù)據(jù)量較大,且有足夠的遷移耐心時,可以選擇自己寫腳本,選擇合適的并行方案遷移數(shù)據(jù),這種方式編碼成本較高。- 數(shù)據(jù)量較大,且希望能在短時間內(nèi)完成數(shù)據(jù)遷移時,可以通過mysql導(dǎo)入導(dǎo)出文件的方式來遷移,這種方式效率較高。