自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

分布式之抉擇分布式鎖——多個方位比較

存儲 存儲軟件 分布式 分布式
無論是redis還是zookpeer,其實可靠性都存在一點問題。但是,zookpeer的分布式鎖的可靠性比redis強太多!但是,zookpeer讀寫性能不如redis,存在著性能瓶頸。大家在生產(chǎn)上使用,可自行進行評估使用。

 引言

為什么寫這篇文章?

目前網(wǎng)上大部分的基于zookeeper,和redis的分布式鎖的文章都不夠全面。要么就是特意避開集群的情況,要么就是考慮不全,讀者看著還是一臉迷茫。坦白說,這種老題材,很難寫出新創(chuàng)意,博主內(nèi)心戰(zhàn)戰(zhàn)兢兢,如履薄冰,文中有什么不嚴謹之處,歡迎批評。

博主的這篇文章,不上代碼,只講分析。

(1)在redis方面,有開源redisson的jar包供你使用。
(2)在zookeeper方面,有開源的curator的jar包供你使用

因為已經(jīng)有開源jar包供你使用,沒有必要再去自己封裝一個,大家出門百度一個api即可,不需要再羅列一堆實現(xiàn)代碼。

需要說明的是,Google有一個名為Chubby的粗粒度分布鎖的服務,然而,Google Chubby并不是開源的,我們只能通過其論文和其他相關(guān)的文檔中了解具體的細節(jié)。值得慶幸的是,Yahoo!借鑒Chubby的設(shè)計思想開發(fā)了zookeeper,并將其開源,因此本文不討論Chubby。至于Tair,是阿里開源的一個分布式K-V存儲方案。我們在工作中基本上redis使用的比較多,討論Tair所實現(xiàn)的分布式鎖,不具有代表性。

因此,主要分析的還是redis和zookeeper所實現(xiàn)的分布式鎖。

[[236745]]

文章結(jié)構(gòu)

本文借鑒了兩篇國外大神的文章,redis的作者antirez的《

Is Redlock safe?

》以及分布式系統(tǒng)專家Martin的《

How to do distributed locking

》,再加上自己微薄的見解從而形成這篇文章,文章的目錄結(jié)構(gòu)如下:

(1)為什么使用分布式鎖
(2)單機情形比較
(3)集群情形比較
(4)鎖的其他特性比較

正文

先上結(jié)論:

zookeeper可靠性比redis強太多,只是效率低了點,如果并發(fā)量不是特別大,追求可靠性,***zookeeper。為了效率,則***redis實現(xiàn)。

為什么使用分布式鎖?


使用分布式鎖的目的,無外乎就是保證同一時間只有一個客戶端可以對共享資源進行操作。

但是Martin指出,根據(jù)鎖的用途還可以細分為以下兩類:

(1)允許多個客戶端操作共享資源
這種情況下,對共享資源的操作一定是冪等性操作,無論你操作多少次都不會出現(xiàn)不同結(jié)果。在這里使用鎖,無外乎就是為了避免重復操作共享資源從而提高效率。
(2)只允許一個客戶端操作共享資源
這種情況下,對共享資源的操作一般是非冪等性操作。在這種情況下,如果出現(xiàn)多個客戶端操作共享資源,就可能意味著數(shù)據(jù)不一致,數(shù)據(jù)丟失。

***回合,單機情形比較

(1)redis
先說加鎖,根據(jù)redis官網(wǎng)文檔的描述,使用下面的命令加鎖

SET resource_name my_random_value NX PX 30000

  • my_random_value是由客戶端生成的一個隨機字符串,相當于是客戶端持有鎖的標志
  • NX表示只有當resource_name對應的key值不存在的時候才能SET成功,相當于只有***個請求的客戶端才能獲得鎖
  • PX 30000表示這個鎖有一個30秒的自動過期時間。

至于解鎖,為了防止客戶端1獲得的鎖,被客戶端2給釋放,采用下面的Lua腳本來釋放鎖

  1. if redis.call("get",KEYS[1]) == ARGV[1] then 
  2. return redis.call("del",KEYS[1]) 
  3. else 
  4. return 0 

在執(zhí)行這段LUA腳本的時候,KEYS[1]的值為resource_name,ARGV[1]的值為my_random_value。原理就是先獲取鎖對應的value值,保證和客戶端穿進去的my_random_value值相等,這樣就能避免自己的鎖被其他人釋放。另外,采取Lua腳本操作保證了原子性.如果不是原子性操作,則有了下述情況出現(xiàn):

分析:這套redis加解鎖機制看起來很***,然而有一個無法避免的硬傷,就是過期時間如何設(shè)置。如果客戶端在操作共享資源的過程中,因為長期阻塞的原因,導致鎖過期,那么接下來訪問共享資源就不安全。

可是,有的人會說

    那可以在客戶端操作完共享資源后,判斷鎖是否依然歸該客戶端所有,如果依然歸客戶端所有,則提交資源,釋放鎖。若不歸客戶端所有,則不提交資源??!

OK,這么做,只能降低多個客戶端操作共享資源發(fā)生的概率,并不能解決問題。

為了方便讀者理解,博主舉一個業(yè)務場景。

業(yè)務場景:我們有一個內(nèi)容修改頁面,為了避免出現(xiàn)多個客戶端修改同一個頁面的請求,采用分布式鎖。只有獲得鎖的客戶端,才能修改頁面。那么正常修改一次頁面的流程如下圖所示:

注意看,上面的步驟(3)-->步驟(4.1)并不是原子性操作。也就說,你可能出現(xiàn)在步驟(3)的時候返回的是有效這個標志位,但是在傳輸過程中,因為延時等原因,在步驟(4.1)的時候,鎖已經(jīng)超時失效了。那么,這個時候鎖就會被另一個客戶端鎖獲得。就出現(xiàn)了兩個客戶端共同操作共享資源的情況。

大家可以思考一下,無論你如何采用任何補償手段,你都只能降低多個客戶端操作共享資源的概率,而無法避免。例如,你在步驟(4.1)的時候也可能發(fā)生長時間GC停頓,然后在停頓的時候,鎖超時失效,從而鎖也有可能被其他客戶端獲得。這些大家可以自行思考推敲。

(2)zookeeper


先簡單說下原理,根據(jù)網(wǎng)上文檔描述,zookeeper的分布式鎖原理是利用了臨時節(jié)點(EPHEMERAL)的特性。

  • 當znode被聲明為EPHEMERAL的后,如果創(chuàng)建znode的那個客戶端崩潰了,那么相應的znode會被自動刪除。這樣就避免了設(shè)置過期時間的問題。
  • 客戶端嘗試創(chuàng)建一個znode節(jié)點,比如/lock。那么***個客戶端就創(chuàng)建成功了,相當于拿到了鎖;而其它的客戶端會創(chuàng)建失?。▃node已存在),獲取鎖失敗。

分析:這種情況下,雖然避免了設(shè)置了有效時間問題,然而還是有可能出現(xiàn)多個客戶端操作共享資源的。

大家應該知道,zookeeper如果長時間檢測不到客戶端的心跳的時候(Session時間),就會認為Session過期了,那么這個Session所創(chuàng)建的所有的ephemeral類型的znode節(jié)點都會被自動刪除。

這種時候會有如下情形出現(xiàn)

如上圖所示,客戶端1發(fā)生GC停頓的時候,zookeeper檢測不到心跳,也是有可能出現(xiàn)多個客戶端同時操作共享資源的情形。當然,你可以說,我們可以通過JVM調(diào)優(yōu),避免GC停頓出現(xiàn)。但是注意了,我們所做的一切,只能盡可能避免多個客戶端操作共享資源,無法完全消除。

第二回合,集群情形比較

我們在生產(chǎn)中,一般都是用集群情形,所以***回合討論的單機情形。算是給大家熱熱身。

(1)redis

為了redis的高可用,一般都會給redis的節(jié)點掛一個slave,然后采用哨兵模式進行主備切換。但由于Redis的主從復制(replication)是異步的,這可能會出現(xiàn)在數(shù)據(jù)同步過程中,master宕機,slave來不及同步數(shù)據(jù)就被選為master,從而數(shù)據(jù)丟失。具體流程如下所示:

    (1)客戶端1從Master獲取了鎖。
    (2)Master宕機了,存儲鎖的key還沒有來得及同步到Slave上。
    (3)Slave升級為Master。
    (4)客戶端2從新的Master獲取到了對應同一個資源的鎖。

為了應對這個情形, redis的作者antirez提出了RedLock算法,步驟如下(該流程出自官方文檔),假設(shè)我們有N個master節(jié)點(官方文檔里將N設(shè)置成5,其實大等于3就行)

    (1)獲取當前時間(單位是毫秒)。
    (2)輪流用相同的key和隨機值在N個節(jié)點上請求鎖,在這一步里,客戶端在每個master上請求鎖時,會有一個和總的鎖釋放時間相比小的多的超時時間。比如如果鎖自動釋放時間是10秒鐘,那每個節(jié)點鎖請求的超時時間可能是5-50毫秒的范圍,這個可以防止一個客戶端在某個宕掉的master節(jié)點上阻塞過長時間,如果一個master節(jié)點不可用了,我們應該盡快嘗試下一個master節(jié)點。
    (3)客戶端計算第二步中獲取鎖所花的時間,只有當客戶端在大多數(shù)master節(jié)點上成功獲取了鎖(在這里是3個),而且總共消耗的時間不超過鎖釋放時間,這個鎖就認為是獲取成功了。
    (4)如果鎖獲取成功了,那現(xiàn)在鎖自動釋放時間就是最初的鎖釋放時間減去之前獲取鎖所消耗的時間。
    (5)如果鎖獲取失敗了,不管是因為獲取成功的鎖不超過一半(N/2+1)還是因為總消耗時間超過了鎖釋放時間,客戶端都會到每個master節(jié)點上釋放鎖,即便是那些他認為沒有獲取成功的鎖。

分析:RedLock算法細想一下還存在下面的問題:

節(jié)點崩潰重啟,會出現(xiàn)多個客戶端持有鎖

假設(shè)一共有5個Redis節(jié)點:A, B, C, D, E。設(shè)想發(fā)生了如下的事件序列:

(1)客戶端1成功鎖住了A, B, C,獲取鎖成功(但D和E沒有鎖?。?。
(2)節(jié)點C崩潰重啟了,但客戶端1在C上加的鎖沒有持久化下來,丟失了。
(3)節(jié)點C重啟后,客戶端2鎖住了C, D, E,獲取鎖成功。
這樣,客戶端1和客戶端2同時獲得了鎖(針對同一資源)。

為了應對節(jié)點重啟引發(fā)的鎖失效問題,redis的作者antirez提出了延遲重啟的概念,即一個節(jié)點崩潰后,先不立即重啟它,而是等待一段時間再重啟,等待的時間大于鎖的有效時間。采用這種方式,這個節(jié)點在重啟前所參與的鎖都會過期,它在重啟后就不會對現(xiàn)有的鎖造成影響。這其實也是通過人為補償措施,降低不一致發(fā)生的概率。

時間跳躍問題

(1)假設(shè)一共有5個Redis節(jié)點:A, B, C, D, E。設(shè)想發(fā)生了如下的事件序列:
(2)客戶端1從Redis節(jié)點A, B, C成功獲取了鎖(多數(shù)節(jié)點)。由于網(wǎng)絡問題,與D和E通信失敗。
(3)節(jié)點C上的時鐘發(fā)生了向前跳躍,導致它上面維護的鎖快速過期。
客戶端2從Redis節(jié)點C, D, E成功獲取了同一個資源的鎖(多數(shù)節(jié)點)。
客戶端1和客戶端2現(xiàn)在都認為自己持有了鎖。

為了應對始終跳躍引發(fā)的鎖失效問題,redis的作者antirez提出了應該禁止人為修改系統(tǒng)時間,使用一個不會進行“跳躍”式調(diào)整系統(tǒng)時鐘的ntpd程序。這也是通過人為補償措施,降低不一致發(fā)生的概率。

超時導致鎖失效問題

RedLock算法并沒有解決,操作共享資源超時,導致鎖失效的問題。回憶一下RedLock算法的過程,如下圖所示:

如圖所示,我們將其分為上下兩個部分。對于上半部分框圖里的步驟來說,無論因為什么原因發(fā)生了延遲,RedLock算法都能處理,客戶端不會拿到一個它認為有效,實際卻失效的鎖。然而,對于下半部分框圖里的步驟來說,如果發(fā)生了延遲導致鎖失效,都有可能使得客戶端2拿到鎖。因此,RedLock算法并沒有解決該問題。

(2)zookeeper


zookeeper在集群部署中,zookeeper節(jié)點數(shù)量一般是奇數(shù),且一定大等于3。我們先回憶一下,zookeeper的寫數(shù)據(jù)的原理。

如圖所示,這張圖懶得畫,直接搬其他文章的了。

那么寫數(shù)據(jù)流程步驟如下:

1.在Client向Follwer發(fā)出一個寫的請求
2.Follwer把請求發(fā)送給Leader
3.Leader接收到以后開始發(fā)起投票并通知Follwer進行投票
4.Follwer把投票結(jié)果發(fā)送給Leader,只要半數(shù)以上返回了ACK信息,就認為通過
5.Leader將結(jié)果匯總后如果需要寫入,則開始寫入同時把寫入操作通知給Leader,然后commit;
6.Follwer把請求結(jié)果返回給Client

還有一點,zookeeper采取的是全局串行化操作。

OK,現(xiàn)在開始分析。

集群同步

client給Follwer寫數(shù)據(jù),可是Follwer卻宕機了,會出現(xiàn)數(shù)據(jù)不一致問題么?不可能,這種時候,client建立節(jié)點失敗,根本獲取不到鎖。
client給Follwer寫數(shù)據(jù),F(xiàn)ollwer將請求轉(zhuǎn)發(fā)給Leader,Leader宕機了,會出現(xiàn)不一致的問題么?不可能,這種時候,zookeeper會選取新的leader,繼續(xù)上面的提到的寫流程。

總之,采用zookeeper作為分布式鎖,你要么就獲取不到鎖,一旦獲取到了,必定節(jié)點的數(shù)據(jù)是一致的,不會出現(xiàn)redis那種異步同步導致數(shù)據(jù)丟失的問題。

時間跳躍問題

不依賴全局時間,怎么會存在這種問題

超時導致鎖失效問題

不依賴有效時間,怎么會存在這種問題

第三回合,鎖的其他特性比較

(1)redis的讀寫性能比zookeeper強太多,如果在高并發(fā)場景中,使用zookeeper作為分布式鎖,那么會出現(xiàn)獲取鎖失敗的情況,存在性能瓶頸。
(2)zookeeper可以實現(xiàn)讀寫鎖,redis不行。
(3)zookeeper的watch機制,客戶端試圖創(chuàng)建znode的時候,發(fā)現(xiàn)它已經(jīng)存在了,這時候創(chuàng)建失敗,那么進入一種等待狀態(tài),當znode節(jié)點被刪除的時候,zookeeper通過watch機制通知它,這樣它就可以繼續(xù)完成創(chuàng)建操作(獲取鎖)。這可以讓分布式鎖在客戶端用起來就像一個本地的鎖一樣:加鎖失敗就阻塞住,直到獲取到鎖為止。這套機制,redis無法實現(xiàn)。

總結(jié)

OK,正文啰嗦了一大堆。其實只是想表明兩個觀點,無論是redis還是zookeeper,其實可靠性都存在一點問題。但是,zookeeper的分布式鎖的可靠性比redis強太多!但是,zookeeper讀寫性能不如redis,存在著性能瓶頸。大家在生產(chǎn)上使用,可自行進行評估使用。

責任編輯:武曉燕 來源: 博客園
相關(guān)推薦

2019-06-19 15:40:06

分布式鎖RedisJava

2019-02-26 09:51:52

分布式鎖RedisZookeeper

2021-07-16 07:57:34

ZooKeeperCurator源碼

2022-08-04 08:45:50

Redisson分布式鎖工具

2019-10-10 09:16:34

Zookeeper架構(gòu)分布式

2023-05-29 14:07:00

Zuul網(wǎng)關(guān)系統(tǒng)

2017-09-01 05:35:58

分布式計算存儲

2021-07-02 08:51:09

Redisson分布式鎖公平鎖

2021-06-30 14:56:12

Redisson分布式公平鎖

2018-11-27 16:17:13

分布式Tomcat

2021-11-26 06:43:19

Java分布式

2023-01-13 07:39:07

2023-09-22 08:00:00

分布式鎖Redis

2017-10-24 11:28:23

Zookeeper分布式鎖架構(gòu)

2023-08-21 19:10:34

Redis分布式

2022-01-06 10:58:07

Redis數(shù)據(jù)分布式鎖

2021-10-25 10:21:59

ZK分布式鎖ZooKeeper

2024-11-28 15:11:28

2017-10-27 08:40:44

分布式存儲剪枝系統(tǒng)

2023-10-26 18:10:43

分布式并行技術(shù)系統(tǒng)
點贊
收藏

51CTO技術(shù)棧公眾號