自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Redis中的BigKey問題:排查與解決思路

數(shù)據(jù)庫 Redis
Big Key問題是Redis中常見的問題之一,但是通過合理的排查和解決思路,我們可以有效地避免這個問題。本文將向大家介紹如何排查和解決這個問題。

摘要

Redis是一款性能強勁的內(nèi)存數(shù)據(jù)庫,但是在使用過程中,我們可能會遇到Big Key問題,這個問題就是Redis中某個key的value過大,所以Big Key問題本質(zhì)是Big Value問題,導(dǎo)致Redis的性能下降或者崩潰。本文將向大家介紹如何排查和解決這個問題。

Big Key問題介紹

在Redis中,每個key都有一個對應(yīng)的value,如果某個key的value過大,就會導(dǎo)致Redis的性能下降或者崩潰,比玄學(xué)更玄學(xué),因為Redis需要將大key全部加載到內(nèi)存中,這會占用大量的內(nèi)存空間,會降低Redis的響應(yīng)速度,這個問題被稱為Big Key問題。不要小看這個問題,它可是能讓你的Redis瞬間變成“烏龜”,由于Redis單線程的特性,操作Big Key的通常比較耗時,也就意味著阻塞Redis可能性越大,這樣會造成客戶端阻塞或者引起故障切換,有可能導(dǎo)致“慢查詢”。

一般而言,下面這兩種情況被稱為大 key:

  • String 類型的 key 對應(yīng)的value超過 10 MB。
  • list、set、hash、zset等集合類型,集合元素個數(shù)超過 5000個。

以上對 Big Key 的判斷標準并不是唯一,只是一個大體的標準。在實際業(yè)務(wù)開發(fā)中,對 Big Key的判斷是需要根據(jù)具體的使用場景做不同的判斷。比如操作某個 key 導(dǎo)致請求響應(yīng)時間變慢,那么這個 key 就可以判定成 Big Key。

在Redis中,大key通常是由以下幾種原因?qū)е碌模?/p>

  • 對象序列化后的大小過大
  • 存儲大量數(shù)據(jù)的容器,如set、list等
  • 大型數(shù)據(jù)結(jié)構(gòu),如bitmap、hyperloglog等

如果不及時處理這些大key,它們會逐漸消耗Redis服務(wù)器的內(nèi)存資源,最終導(dǎo)致Redis崩潰。

Big Key問題排查

當(dāng)出現(xiàn)Redis性能急劇下降的情況時,很可能是由于存在大key導(dǎo)致的。在排除大key問題時,可以考慮采取以下幾種方法:

1.使用BIGKEYS命令

Redis自帶的 BIGKEYS 命令可以查詢當(dāng)前Redis中所有key的信息,對整個數(shù)據(jù)庫中的鍵值對大小情況進行統(tǒng)計分析,比如說,統(tǒng)計每種數(shù)據(jù)類型的鍵值對個數(shù)以及平均大小。此外,這個命令執(zhí)行后,會輸出每種數(shù)據(jù)類型中最大的 bigkey 的信息,對于 String 類型來說,會輸出最大 bigkey 的字節(jié)長度,對于集合類型來說,會輸出最大 bigkey 的元素個數(shù)

BIGKEYS命令會掃描整個數(shù)據(jù)庫,這個命令本身會阻塞Redis,找出所有的大鍵,并將其以一個列表的形式返回給客戶端。

命令格式如下:

$ redis-cli --bigkeys

返回示例如下:

# Scanning the entire keyspace to find biggest keys as well as
# average sizes per key type.  You can use -i 0.1 to sleep 0.1 sec
# per 100 SCAN commands (not usually needed).

[00.00%] Biggest string found so far 'a' with 3 bytes
[05.14%] Biggest list   found so far 'b' with 100004 items
[35.77%] Biggest string found so far 'c' with 6 bytes
[73.91%] Biggest hash   found so far 'd' with 3 fields

-------- summary -------

Sampled 506 keys in the keyspace!
Total key length in bytes is 3452 (avg len 6.82)

Biggest string found 'c' has 6 bytes
Biggest   list found 'b' has 100004 items
Biggest   hash found 'd' has 3 fields

504 strings with 1403 bytes (99.60% of keys, avg size 2.78)
1 lists with 100004 items (00.20% of keys, avg size 100004.00)
0 sets with 0 members (00.00% of keys, avg size 0.00)
1 hashs with 3 fields (00.20% of keys, avg size 3.00)
0 zsets with 0 members (00.00% of keys, avg size 0.00)

需要注意的是,由于BIGKEYS命令需要掃描整個數(shù)據(jù)庫,所以它可能會對Redis實例造成一定的負擔(dān)。在執(zhí)行這個命令之前,請確保您的Redis實例有足夠的資源來處理它,建議在從節(jié)點執(zhí)行。

2.Debug Object

如果我們找到了Big Key,就需要對其進行進一步的分析。我們可以使用命令debug object key查看某個key的詳細信息,包括該key的value大小等。這時候你就可以“窺探”Redis的內(nèi)部,看看到底是哪個key太大了。

Debug Object 命令是一個調(diào)試命令,當(dāng) key 存在時,返回有關(guān)信息。 當(dāng) key 不存在時,返回一個錯誤。

redis 127.0.0.1:6379> DEBUG OBJECT key
Value at:0xb6838d20 refcount:1 encoding:raw serializedlength:9 lru:283790 lru_seconds_idle:150

redis 127.0.0.1:6379> DEBUG OBJECT key
(error) ERR no such key

serializedlength表示key對應(yīng)的value序列化之后的字節(jié)數(shù)

3.memory usage

在Redis4.0之前,只能通過DEBUG OBJECT命令估算key的內(nèi)存使用(字段serializedlength),但DEBUG OBJECT命令是有誤差的。

4.0版本及以上,我們可以使用memory usag命令。

memory usage命令使用非常簡單,直接按memory usage key名字;如果當(dāng)前key存在,則返回key的value實際使用內(nèi)存估算值;如果key不存在,則返回nil。

127.0.0.1:6379> set k1 value1
OK
127.0.0.1:6379> memory usage k1    //這里k1 value占用57字節(jié)內(nèi)存
(integer) 57
127.0.0.1:6379> memory usage aaa  // aaa鍵不存在,返回nil.
(nil)

對于除String類型之外的類型,memory usage命令采用抽樣的方式,默認抽樣5個元素,所以計算是近似值,我們也可以指定抽樣的個數(shù)。

示例說明:生成一個100w個字段的hash鍵:hkey,每字段的value長度是從1~1024字節(jié)的隨機值。

127.0.0.1:6379> hlen hkey    // hkey有100w個字段,每個字段的value長度介于1~1024個字節(jié)
(integer) 1000000
127.0.0.1:6379> MEMORY usage hkey   //默認SAMPLES為5,分析hkey鍵內(nèi)存占用521588753字節(jié)
(integer) 521588753
127.0.0.1:6379> MEMORY usage hkey SAMPLES  1000 //指定SAMPLES為1000,分析hkey鍵內(nèi)存占用617977753字節(jié)
(integer) 617977753
127.0.0.1:6379> MEMORY usage hkey SAMPLES  10000 //指定SAMPLES為10000,分析hkey鍵內(nèi)存占用624950853字節(jié)
(integer) 624950853

要想獲取key較精確的內(nèi)存值,就指定更大抽樣個數(shù)。但是抽樣個數(shù)越大,占用cpu時間分片就越大。

4.redis-rdb-tools

redis-rdb-tools 是一個 python 的解析 rdb 文件的工具,在分析內(nèi)存的時候,我們主要用它生成內(nèi)存快照??梢园?rdb 快照文件生成 CSV 或 JSON 文件,也可以導(dǎo)入到 MySQL 生成報表來分析。

使用 PYPI 安裝:

pip install rdbtools

生成內(nèi)存快照:

rdb -c memory dump.rdb > memory.csv

在生成的 CSV 文件中有以下幾列:

  • database key在Redis的db
  • type key類型
  • key key值
  • size_in_bytes key的內(nèi)存大小
  • encoding value的存儲編碼形式
  • num_elements key中的value的個數(shù)
  • len_largest_element key中的value的長度

可以在MySQL中新建表然后導(dǎo)入進行分析,然后可以直接通過SQL語句進行查詢分析。

CREATE TABLE `memory` (
     `database` int(128) DEFAULT NULL,
     `type` varchar(128) DEFAULT NULL,
     `KEY` varchar(128),
     `size_in_bytes` bigint(20) DEFAULT NULL,
     `encoding` varchar(128) DEFAULT NULL,
     `num_elements` bigint(20) DEFAULT NULL,
     `len_largest_element` varchar(128) DEFAULT NULL,
     PRIMARY KEY (`KEY`)
 );

例子:查詢內(nèi)存占用最高的3個 key:

mysql> SELECT * FROM memory ORDER BY size_in_bytes DESC LIMIT 3;
+----------+------+-----+---------------+-----------+--------------+---------------------+
| database | type | key | size_in_bytes | encoding  | num_elements | len_largest_element |
+----------+------+-----+---------------+-----------+--------------+---------------------+
|        0 | set  | k1  |        624550 | hashtable |        50000 | 10                  |
|        0 | set  | k2  |        420191 | hashtable |        46000 | 10                  |
|        0 | set  | k3  |        325465 | hashtable |        38000 | 10                  |
+----------+------+-----+---------------+-----------+--------------+---------------------+
3 rows in set (0.12 sec)

Big Key問題解決思路

當(dāng)發(fā)現(xiàn)存在大key問題時,我們需要及時采取措施來解決這個問題。下面列出幾種可行的解決思路:

1.分割大key

將Big Key拆分成多個小的key。這個方法比較簡單,但是需要修改應(yīng)用程序的代碼。就像是把一個大蛋糕切成小蛋糕一樣,有點費力,但是可以解決問題。

或者嘗試將Big Key轉(zhuǎn)換成Redis的數(shù)據(jù)結(jié)構(gòu)。例如,將Big Key轉(zhuǎn)換成Hash,List或者Set等數(shù)據(jù)結(jié)構(gòu)。

2.對象壓縮

如果大key的大小主要是由于對象序列化后的體積過大,我們可以考慮使用壓縮算法來減小對象的大小。Redis自身支持多種壓縮算法,例如LZF、Snappy等。

3.直接刪除

如果你使用的是Redis 4.0+的版本,可以直接使用 unlink命令去異步刪除。4.0以下的版本 可以考慮使用 scan ,分批次刪除。

無論采用哪種方法,都需要注意以下幾點:

  • 避免使用過大的value。如果需要存儲大量的數(shù)據(jù),可以將其拆分成多個小的value。就像是吃飯一樣,一口一口的吃,不要貪多嚼不爛。
  • 避免使用不必要的數(shù)據(jù)結(jié)構(gòu)。例如,如果只需要存儲一個字符串,就不要使用Hash或者List等數(shù)據(jù)結(jié)構(gòu)。
  • 定期清理過期的key。如果Redis中存在大量的過期key,就會導(dǎo)致Redis的性能下降。就像是家里的垃圾,需要定期清理。
  • 對象壓縮

總結(jié)

Big Key問題是Redis中常見的問題之一,但是通過合理的排查和解決思路,我們可以有效地避免這個問題。在使用Redis時,需要注意避免使用過大的value和不必要的數(shù)據(jù)結(jié)構(gòu),以及定期清理過期的key。

責(zé)任編輯:趙寧寧 來源: Java隨想錄
相關(guān)推薦

2023-10-13 12:05:55

RedisBig Key

2022-11-16 21:55:51

Redis數(shù)據(jù)庫

2024-05-15 07:26:50

RedisBigKey優(yōu)化

2019-12-13 10:50:10

TCP排查服務(wù)器

2024-12-02 01:16:53

2024-12-02 09:10:15

Redis性能優(yōu)化

2021-10-14 07:28:03

Kubernetes通用排查

2021-08-30 10:07:12

Redis BigKeyHotKey

2024-11-21 16:47:55

2020-10-12 17:20:47

CPULoadLinux

2013-07-04 10:55:20

2020-09-25 11:10:51

運維故障排查監(jiān)控

2021-10-28 17:05:11

IT運維故障

2021-04-25 09:25:25

Linux手工排查

2021-09-26 19:39:58

MogDB故障數(shù)據(jù)庫

2024-04-16 13:32:57

2019-07-16 06:43:18

LinuxCPU占用率

2023-02-16 08:55:13

2021-04-19 08:02:54

Windows手工入侵

2024-07-01 08:04:38

點贊
收藏

51CTO技術(shù)棧公眾號