如何避免HBase寫入過快引起的各種問題
首先我們簡單回顧下整個寫入流程
- client api ==> RPC ==> server IPC ==> RPC queue ==> RPC handler ==> write WAL ==> write memstore ==> flush to filesystem
整個寫入流程從客戶端調(diào)用API開始,數(shù)據(jù)會通過protobuf編碼成一個請求,通過scoket實現(xiàn)的IPC模塊被送達server的RPC隊列中。***由負責(zé)處理RPC的handler取出請求完成寫入操作。寫入會先寫WAL文件,然后再寫一份到內(nèi)存中,也就是memstore模塊,當(dāng)滿足條件時,memstore才會被flush到底層文件系統(tǒng),形成HFile。
當(dāng)寫入過快時會遇見什么問題?
寫入過快時,memstore的水位會馬上被推高。
你可能會看到以下類似日志:
- RegionTooBusyException: Above memstore limit, regionName=xxxxx ...
這個是Region的memstore占用內(nèi)存大小超過正常的4倍,這時候會拋異常,寫入請求會被拒絕,客戶端開始重試請求。當(dāng)達到128M的時候會觸發(fā)flush memstore,當(dāng)達到128M * 4還沒法觸發(fā)flush時候會拋異常來拒絕寫入。兩個相關(guān)參數(shù)的默認值如下:
- hbase.hregion.memstore.flush.size=128M
- hbase.hregion.memstore.block.multiplier=4
或者這樣的日志:
- regionserver.MemStoreFlusher: Blocking updates on hbase.example.host.com,16020,1522286703886: the global memstore size 1.3 G is >= than blocking 1.3 G size
- regionserver.MemStoreFlusher: Memstore is above high water mark and block 528ms
這是所有region的memstore內(nèi)存總和開銷超過配置上限,默認是配置heap的40%,這會導(dǎo)致寫入被阻塞。目的是等待flush的線程把內(nèi)存里的數(shù)據(jù)flush下去,否則繼續(xù)允許寫入memestore會把內(nèi)存寫爆
- hbase.regionserver.global.memstore.upperLimit=0.4 # 較舊版本,新版本兼容
- hbase.regionserver.global.memstore.size=0.4 # 新版本
當(dāng)寫入被阻塞,隊列會開始積壓,如果運氣不好***會導(dǎo)致OOM,你可能會發(fā)現(xiàn)JVM由于OOM crash或者看到如下類似日志:
- ipc.RpcServer: /192.168.x.x:16020 is unable to read call parameter from client 10.47.x.x
- java.lang.OutOfMemoryError: Java heap space
HBase這里我認為有個很不好的設(shè)計,捕獲了OOM異常卻沒有終止進程。這時候進程可能已經(jīng)沒法正常運行下去了,你還會在日志里發(fā)現(xiàn)很多其它線程也拋OOM異常。比如stop可能根本stop不了,RS可能會處于一種僵死狀態(tài)。
如何避免RS OOM?
一種是加快flush速度:
- hbase.hstore.blockingWaitTime = 90000 ms
- hbase.hstore.flusher.count = 2
- hbase.hstore.blockingStoreFiles = 10
當(dāng)達到hbase.hstore.blockingStoreFiles配置上限時,會導(dǎo)致flush阻塞等到compaction工作完成。阻塞時間是hbase.hstore.blockingWaitTime,可以改小這個時間。hbase.hstore.flusher.count可以根據(jù)機器型號去配置,可惜這個數(shù)量不會根據(jù)寫壓力去動態(tài)調(diào)整,配多了,非導(dǎo)入數(shù)據(jù)多場景也沒用,改配置還得重啟。
同樣的道理,如果flush加快,意味這compaction也要跟上,不然文件會越來越多,這樣scan性能會下降,開銷也會增大。
- hbase.regionserver.thread.compaction.small = 1
- hbase.regionserver.thread.compaction.large = 1
增加compaction線程會增加CPU和帶寬開銷,可能會影響正常的請求。如果不是導(dǎo)入數(shù)據(jù),一般而言是夠了。好在這個配置在云HBase內(nèi)是可以動態(tài)調(diào)整的,不需要重啟。
上述配置都需要人工干預(yù),如果干預(yù)不及時server可能已經(jīng)OOM了,這時候有沒有更好的控制方法?
- hbase.ipc.server.max.callqueue.size = 1024 * 1024 * 1024 # 1G
直接限制隊列堆積的大小。當(dāng)堆積到一定程度后,事實上后面的請求等不到server端處理完,可能客戶端先超時了。并且一直堆積下去會導(dǎo)致OOM,1G的默認配置需要相對大內(nèi)存的型號。當(dāng)達到queue上限,客戶端會收到CallQueueTooBigException 然后自動重試。通過這個可以防止寫入過快時候把server端寫爆,有一定反壓作用。線上使用這個在一些小型號穩(wěn)定性控制上效果不錯。