自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

從零到千萬用戶,我是如何一步步優(yōu)化MySQL數(shù)據(jù)庫的?

數(shù)據(jù)庫 MySQL
很多小伙伴留言說讓我寫一些工作過程中的真實(shí)案例,寫些啥呢?想來想去,寫一篇我在以前公司從零開始到用戶超千萬的數(shù)據(jù)庫架構(gòu)升級(jí)演變的過程吧。

[[351000]]

 作者個(gè)人研發(fā)的在高并發(fā)場(chǎng)景下,提供的簡(jiǎn)單、穩(wěn)定、可擴(kuò)展的延遲消息隊(duì)列框架,具有精準(zhǔn)的定時(shí)任務(wù)和延遲隊(duì)列處理功能。自開源半年多以來,已成功為十幾家中小型企業(yè)提供了精準(zhǔn)定時(shí)調(diào)度方案,經(jīng)受住了生產(chǎn)環(huán)境的考驗(yàn)。為使更多童鞋受益,現(xiàn)給出開源框架地址:https://github.com/sunshinelyz/mykit-delay

寫在前面

很多小伙伴留言說讓我寫一些工作過程中的真實(shí)案例,寫些啥呢?想來想去,寫一篇我在以前公司從零開始到用戶超千萬的數(shù)據(jù)庫架構(gòu)升級(jí)演變的過程吧。

本文記錄了我之前初到一家創(chuàng)業(yè)公司,從零開始到用戶超千萬,系統(tǒng)壓力暴增的情況下是如何一步步優(yōu)化MySQL數(shù)據(jù)庫的,以及數(shù)據(jù)庫架構(gòu)升級(jí)的演變過程。升級(jí)的過程極具技術(shù)挑戰(zhàn)性,也從中收獲不少。希望能夠?yàn)樾』锇閭儙韺?shí)質(zhì)性的幫助。

業(yè)務(wù)背景

我之前呆過一家創(chuàng)業(yè)工作,是做商城業(yè)務(wù)的,商城這種業(yè)務(wù),表面上看起來涉及的業(yè)務(wù)簡(jiǎn)單,包括:用戶、商品、庫存、訂單、購物車、支付、物流等業(yè)務(wù)。但是,細(xì)分下來,還是比較復(fù)雜的。這其中往往會(huì)牽扯到很多提升用戶體驗(yàn)的潛在需求。例如:為用戶推薦商品,這就涉及到用戶的行為分析和大數(shù)據(jù)的精準(zhǔn)推薦。如果說具體的技術(shù)的話,那肯定就包含了:用戶行為日志埋點(diǎn)、采集、上報(bào),大數(shù)據(jù)實(shí)時(shí)統(tǒng)計(jì)分析,用戶畫像,商品推薦等大數(shù)據(jù)技術(shù)。

公司的業(yè)務(wù)增長(zhǎng)迅速,僅僅2年半不到的時(shí)間用戶就從零積累到千萬級(jí)別,每天的訪問量幾億次,高峰QPS高達(dá)上萬次每秒,雙十一期間的訪問量和QPS是平時(shí)的幾倍。數(shù)據(jù)的寫壓力來源于用戶下單,支付等操作,尤其是趕上雙十一大促期間,系統(tǒng)的寫壓力會(huì)成倍增長(zhǎng)。然而,讀業(yè)務(wù)的壓力會(huì)遠(yuǎn)遠(yuǎn)大于寫壓力,據(jù)不完全統(tǒng)計(jì),讀業(yè)務(wù)的請(qǐng)求量是寫業(yè)務(wù)的請(qǐng)求量的50倍左右。

接下來,我們就一起來看看數(shù)據(jù)庫是如何升級(jí)的。

最初的技術(shù)選型

作為創(chuàng)業(yè)公司,最重要的一點(diǎn)是敏捷,快速實(shí)現(xiàn)產(chǎn)品,對(duì)外提供服務(wù),于是我們選擇了公有云服務(wù),保證快速實(shí)施和可擴(kuò)展性,節(jié)省了自建機(jī)房等時(shí)間。整體后臺(tái)采用的是Java語言進(jìn)行開發(fā),數(shù)據(jù)庫使用的MySQL。整體如下圖所示。

讀寫分離

隨著業(yè)務(wù)的發(fā)展,訪問量的極速增長(zhǎng),上述的方案很快不能滿足性能需求。每次請(qǐng)求的響應(yīng)時(shí)間越來越長(zhǎng),比如用戶在H5頁面上不斷刷新商品,響應(yīng)時(shí)間從最初的500毫秒增加到了2秒以上。業(yè)務(wù)高峰期,系統(tǒng)甚至出現(xiàn)過宕機(jī)。在這生死存亡的關(guān)鍵時(shí)刻,通過監(jiān)控,我們發(fā)現(xiàn)高峰期MySQL CPU使用率已接近80%,磁盤IO使用率接近90%,slow query(慢查詢)從每天1百條上升到1萬條,而且一天比一天嚴(yán)重。數(shù)據(jù)庫儼然已成為瓶頸,我們必須得快速做架構(gòu)升級(jí)。

當(dāng)Web應(yīng)用服務(wù)出現(xiàn)性能瓶頸的時(shí)候,由于服務(wù)本身無狀態(tài),我們可以通過加機(jī)器的水平擴(kuò)展方式來解決。而數(shù)據(jù)庫顯然無法通過簡(jiǎn)單的添加機(jī)器來實(shí)現(xiàn)擴(kuò)展,因此我們采取了MySQL主從同步和應(yīng)用服務(wù)端讀寫分離的方案。

MySQL支持主從同步,實(shí)時(shí)將主庫的數(shù)據(jù)增量復(fù)制到從庫,而且一個(gè)主庫可以連接多個(gè)從庫同步。利用此特性,我們?cè)趹?yīng)用服務(wù)端對(duì)每次請(qǐng)求做讀寫判斷,若是寫請(qǐng)求,則把這次請(qǐng)求內(nèi)的所有DB操作發(fā)向主庫;若是讀請(qǐng)求,則把這次請(qǐng)求內(nèi)的所有DB操作發(fā)向從庫,如下圖所示。

實(shí)現(xiàn)讀寫分離后,數(shù)據(jù)庫的壓力減少了許多,CPU使用率和IO使用率都降到了5%以內(nèi),Slow Query(慢查詢)也趨近于0。主從同步、讀寫分離給我們主要帶來如下兩個(gè)好處:

  • 減輕了主庫(寫)壓力:商城業(yè)務(wù)主要來源于讀操作,做讀寫分離后,讀壓力轉(zhuǎn)移到了從庫,主庫的壓力減小了數(shù)十倍。
  • 從庫(讀)可水平擴(kuò)展(加從庫機(jī)器):因系統(tǒng)壓力主要是讀請(qǐng)求,而從庫又可水平擴(kuò)展,當(dāng)從庫壓力太時(shí),可直接添加從庫機(jī)器,緩解讀請(qǐng)求壓力。

當(dāng)然,沒有一個(gè)方案是萬能的。讀寫分離,暫時(shí)解決了MySQL壓力問題,同時(shí)也帶來了新的挑戰(zhàn)。業(yè)務(wù)高峰期,用戶提交完訂單,在我的訂單列表中卻看不到自己提交的訂單信息(典型的read after write問題);系統(tǒng)內(nèi)部偶爾也會(huì)出現(xiàn)一些查詢不到數(shù)據(jù)的異常。通過監(jiān)控,我們發(fā)現(xiàn),業(yè)務(wù)高峰期MySQL可能會(huì)出現(xiàn)主從復(fù)制延遲,極端情況,主從延遲高達(dá)數(shù)秒。這極大的影響了用戶體驗(yàn)。

那如何監(jiān)控主從同步狀態(tài)?在從庫機(jī)器上,執(zhí)行show slave status,查看Seconds_Behind_Master值,代表主從同步從庫落后主庫的時(shí)間,單位為秒,若主從同步無延遲,這個(gè)值為0。MySQL主從延遲一個(gè)重要的原因之一是主從復(fù)制是單線程串行執(zhí)行(高版本MySQL支持并行復(fù)制)。

那如何避免或解決主從延遲?我們做了如下一些優(yōu)化:

  • 優(yōu)化MySQL參數(shù),比如增大innodb_buffer_pool_size,讓更多操作在MySQL內(nèi)存中完成,減少磁盤操作。
  • 使用高性能CPU主機(jī)。
  • 數(shù)據(jù)庫使用物理主機(jī),避免使用虛擬云主機(jī),提升IO性能。
  • 使用SSD磁盤,提升IO性能。SSD的隨機(jī)IO性能約是SATA硬盤的10倍甚至更高。
  • 業(yè)務(wù)代碼優(yōu)化,將實(shí)時(shí)性要求高的某些操作,強(qiáng)制使用主庫做讀操作。
  • 升級(jí)高版本MySQL,支持并行主從復(fù)制。

垂直分庫

讀寫分離很好的解決了讀壓力問題,每次讀壓力增加,可以通過加從庫的方式水平擴(kuò)展。但是寫操作的壓力隨著業(yè)務(wù)爆發(fā)式的增長(zhǎng)沒有得到有效的緩解,比如用戶提交訂單越來越慢。通過監(jiān)控MySQL數(shù)據(jù)庫,我們發(fā)現(xiàn),數(shù)據(jù)庫寫操作越來越慢,一次普通的insert操作,甚至可能會(huì)執(zhí)行1秒以上。

另一方面,業(yè)務(wù)越來越復(fù)雜,多個(gè)應(yīng)用系統(tǒng)使用同一個(gè)數(shù)據(jù)庫,其中一個(gè)很小的非核心功能出現(xiàn)延遲,常常影響主庫上的其它核心業(yè)務(wù)功能。這時(shí),主庫成為了性能瓶頸,我們意識(shí)到,必須得再一次做架構(gòu)升級(jí),將主庫做拆分,一方面以提升性能,另一方面減少系統(tǒng)間的相互影響,以提升系統(tǒng)穩(wěn)定性。這一次,我們將系統(tǒng)按業(yè)務(wù)進(jìn)行了垂直拆分。如下圖所示,將最初龐大的數(shù)據(jù)庫按業(yè)務(wù)拆分成不同的業(yè)務(wù)數(shù)據(jù)庫,每個(gè)系統(tǒng)僅訪問對(duì)應(yīng)業(yè)務(wù)的數(shù)據(jù)庫,盡量避免或減少跨庫訪問。

垂直分庫過程,我們也遇到不少挑戰(zhàn),最大的挑戰(zhàn)是:不能跨庫join,同時(shí)需要對(duì)現(xiàn)有代碼重構(gòu)。單庫時(shí),可以簡(jiǎn)單的使用join關(guān)聯(lián)表查詢;拆庫后,拆分后的數(shù)據(jù)庫在不同的實(shí)例上,就不能跨庫使用join了。

例如,通過商家名查詢某個(gè)商家的所有訂單,在垂直分庫前,可以join商家和訂單表做查詢,也可以直接使用子查詢,如下如示:

  1. select * from tb_order where supplier_id in (select id from supplier where name=’商家名稱’); 

分庫后,則要重構(gòu)代碼,先通過商家名查詢商家id,再通過商家id查詢訂單表,如下所示:

  1. select id from supplier where name=’商家名稱’ 
  2. select * from tb_order where supplier_id in (supplier_ids ) 

垂直分庫過程中的經(jīng)驗(yàn)教訓(xùn),使我們制定了SQL最佳實(shí)踐,其中一條便是程序中禁用或少用join,而應(yīng)該在程序中組裝數(shù)據(jù),讓SQL更簡(jiǎn)單。一方面為以后進(jìn)一步垂直拆分業(yè)務(wù)做準(zhǔn)備,另一方面也避免了MySQL中join的性能低下的問題。

經(jīng)過近十天加班加點(diǎn)的底層架構(gòu)調(diào)整,以及業(yè)務(wù)代碼重構(gòu),終于完成了數(shù)據(jù)庫的垂直拆分。拆分之后,每個(gè)應(yīng)用程序只訪問對(duì)應(yīng)的數(shù)據(jù)庫,一方面將單點(diǎn)數(shù)據(jù)庫拆分成了多個(gè),分?jǐn)偭酥鲙鞂憠毫?另一方面,拆分后的數(shù)據(jù)庫各自獨(dú)立,實(shí)現(xiàn)了業(yè)務(wù)隔離,不再互相影響。

水平分庫

讀寫分離,通過從庫水平擴(kuò)展,解決了讀壓力;垂直分庫通過按業(yè)務(wù)拆分主庫,緩存了寫壓力,但系統(tǒng)依然存在以下隱患:

  • 單表數(shù)據(jù)量越來越大。如訂單表,單表記錄數(shù)很快就過億,超出MySQL的極限,影響讀寫性能。
  • 核心業(yè)務(wù)庫的寫壓力越來越大,已不能再進(jìn)一次垂直拆分,此時(shí)的系統(tǒng)架構(gòu)中,MySQL 主庫不具備水平擴(kuò)展的能力。

此時(shí),我們需要對(duì)MySQL進(jìn)一步進(jìn)行水平拆分。

水平分庫面臨的第一個(gè)問題是,按什么邏輯進(jìn)行拆分。一種方案是按城市拆分,一個(gè)城市的所有數(shù)據(jù)在一個(gè)數(shù)據(jù)庫中;另一種方案是按訂單ID平均拆分?jǐn)?shù)據(jù)。按城市拆分的優(yōu)點(diǎn)是數(shù)據(jù)聚合度比較高,做聚合查詢比較簡(jiǎn)單,實(shí)現(xiàn)也相對(duì)簡(jiǎn)單,缺點(diǎn)是數(shù)據(jù)分布不均勻,某些城市的數(shù)據(jù)量極大,產(chǎn)生熱點(diǎn),而這些熱點(diǎn)以后可能還要被迫再次拆分。按訂單ID拆分則正相反,優(yōu)點(diǎn)是數(shù)據(jù)分布均勻,不會(huì)出現(xiàn)一個(gè)數(shù)據(jù)庫數(shù)據(jù)極大或極小的情況,缺點(diǎn)是數(shù)據(jù)太分散,不利于做聚合查詢。比如,按訂單ID拆分后,一個(gè)商家的訂單可能分布在不同的數(shù)據(jù)庫中,查詢一個(gè)商家的所有訂單,可能需要查詢多個(gè)數(shù)據(jù)庫。針對(duì)這種情況,一種解決方案是將需要聚合查詢的數(shù)據(jù)做冗余表,冗余的表不做拆分,同時(shí)在業(yè)務(wù)開發(fā)過程中,減少聚合查詢。

經(jīng)過反復(fù)思考,我們最后決定按訂單ID做水平分庫。從架構(gòu)上,將系統(tǒng)分為三層:

  • 應(yīng)用層:即各類業(yè)務(wù)應(yīng)用系統(tǒng)
  • 數(shù)據(jù)訪問層:統(tǒng)一的數(shù)據(jù)訪問接口,對(duì)上層應(yīng)用層屏蔽讀寫分庫、分表、緩存等技術(shù)細(xì)節(jié)。
  • 數(shù)據(jù)層:對(duì)DB數(shù)據(jù)進(jìn)行分片,并可動(dòng)態(tài)的添加shard分片。

水平分庫的技術(shù)關(guān)鍵點(diǎn)在于數(shù)據(jù)訪問層的設(shè)計(jì),數(shù)據(jù)訪問層主要包含三部分:

  • 分布式緩存
  • 數(shù)據(jù)庫中間件
  • 數(shù)據(jù)異構(gòu)中間件

而數(shù)據(jù)庫中間件需要包含如下重要的功能:

  • ID生成器:生成每張表的主鍵
  • 數(shù)據(jù)源路由:將每次DB操作路由到不同的分片數(shù)據(jù)源上

ID生成器

ID生成器是整個(gè)水平分庫的核心,它決定了如何拆分?jǐn)?shù)據(jù),以及查詢存儲(chǔ)-檢索數(shù)據(jù)。ID需要跨庫全局唯一,否則會(huì)引發(fā)業(yè)務(wù)層的沖突。此外,ID必須是數(shù)字且升序,這主要是考慮到升序的ID能保證MySQL的性能(若是UUID等隨機(jī)字符串,在高并發(fā)和大數(shù)據(jù)量情況下,性能極差)。同時(shí),ID生成器必須非常穩(wěn)定,因?yàn)槿魏喂收隙紩?huì)影響所有的數(shù)據(jù)庫操作。

我們系統(tǒng)中ID生成器的設(shè)計(jì)如下所示。

  • 整個(gè)ID的二進(jìn)制長(zhǎng)度為64位
  • 前36位使用時(shí)間戳,以保證ID是升序增加
  • 中間13位是分庫標(biāo)識(shí),用來標(biāo)識(shí)當(dāng)前這個(gè)ID對(duì)應(yīng)的記錄在哪個(gè)數(shù)據(jù)庫中
  • 后15位為自增序列,以保證在同一秒內(nèi)并發(fā)時(shí),ID不會(huì)重復(fù)。每個(gè)分片庫都有一個(gè)自增序列表,生成自增序列時(shí),從自增序列表中獲取當(dāng)前自增序列值,并加1,做為當(dāng)前ID的后15位
  • 下一秒時(shí),后15位的自增序列再次從1開始。

水平分庫是一個(gè)極具挑戰(zhàn)的項(xiàng)目,我們整個(gè)團(tuán)隊(duì)也在不斷的迎接挑戰(zhàn)中快速成長(zhǎng)。

為了適應(yīng)公司業(yè)務(wù)的不斷發(fā)展,除了在MySQL數(shù)據(jù)庫上進(jìn)行相應(yīng)的架構(gòu)升級(jí)外,我們還搭建了一套完整的大數(shù)據(jù)實(shí)時(shí)分析統(tǒng)計(jì)平臺(tái),在系統(tǒng)中對(duì)用戶的行為進(jìn)行實(shí)時(shí)分析。

關(guān)于如何搭建大數(shù)據(jù)實(shí)時(shí)分析統(tǒng)計(jì)平臺(tái),對(duì)用戶的行為進(jìn)行實(shí)時(shí)分析,我們后面再詳細(xì)介紹。

 

責(zé)任編輯:武曉燕 來源: 冰河技術(shù)
相關(guān)推薦

2020-12-24 11:19:55

JavaMapHashMap

2015-10-08 11:25:55

2018-07-13 15:36:52

2021-08-31 07:11:48

MySQL億級(jí)流量

2017-01-06 15:13:25

LinuxVim源代碼

2024-08-30 08:30:29

CPU操作系統(tǒng)寄存器

2024-09-30 09:56:59

2017-01-19 21:08:33

iOS路由構(gòu)建

2017-07-15 21:10:58

CTOCEO技術(shù)

2017-12-25 11:50:57

LinuxArch Linux

2024-08-06 09:29:54

程序機(jī)器指令字符串

2025-04-03 01:45:00

2025-03-28 09:39:15

CPU指令信號(hào)

2019-03-05 14:09:27

Docker存儲(chǔ)容器

2019-07-09 15:23:22

Docker存儲(chǔ)驅(qū)動(dòng)

2018-12-24 10:04:06

Docker存儲(chǔ)驅(qū)動(dòng)

2019-04-01 10:15:02

2010-03-04 16:28:17

Android核心代碼

2016-11-02 18:54:01

javascript

2009-08-14 11:35:01

Scala Actor
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)