自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

記一次 .NET 某智慧出行系統(tǒng) CPU 爆高分析

開發(fā) 后端
這次生產(chǎn)事故分析還是非常有意思的,一個(gè)看似阻塞的問題也會(huì)引發(fā)CPU爆高,超出了一些人的認(rèn)知吧,對(duì),其實(shí)它就是經(jīng)典的 lock convoy 現(xiàn)象,大家有任何dump問題可以找我,一如既往的免費(fèi)分析。

一、背景

1. 講故事

前些天有位朋友找到我,說他們的系統(tǒng)出現(xiàn)了CPU 100%的情況,讓我?guī)兔匆幌略趺椿厥拢縟ump也拿到了,本想著這種情況讓他多抓幾個(gè),既然有了就拿現(xiàn)有的分析吧。

二、WinDbg 分析

1. 為什么會(huì)爆高

既然說是 100%,作為調(diào)試者得拿數(shù)據(jù)說話,可以使用 !tp 來觀測(cè)一下。

0:000:x86> !tp
CPU utilization: 100%
Worker Thread: Total: 382 Running: 382 Idle: 0 MaxLimit: 8191 MinLimit: 8
Work Request in Queue: 8694
    Unknown Function: 6f62b650  Context: 4a36bbbc
    Unknown Function: 6f62b650  Context: 4a36e1d4
    Unknown Function: 6f62b650  Context: 4a372384
    Unknown Function: 6f62b650  Context: 239adfec
    Unknown Function: 6f62b650  Context: 4a374994
    Unknown Function: 6f62b650  Context: 239b9e14
    Unknown Function: 6f62b650  Context: 2399fd9c
    ...

從卦中看,不得了,CPU 100% 之外,所有的線程池線程全部被打滿,人生自古最忌滿,半貧半富半自安。同時(shí)線程池隊(duì)列還累計(jì)了8694個(gè)任務(wù)待處理,說明這時(shí)候的線程池已經(jīng)全面淪陷,要想找到這個(gè)答案,需要用 ~*e !clrstack 命令觀察每一個(gè)線程此時(shí)正在做什么,輸出如下:

0:000:x86> ~*e !clrstack
OS Thread Id: 0x22f4 (429)
Child SP       IP Call Site
4bc1e060 0000002b [GCFrame: 4bc1e060] 
4bc1e110 0000002b [HelperMethodFrame_1OBJ: 4bc1e110] System.Threading.Monitor.ObjWait(Boolean, Int32, System.Object)
4bc1e19c 24aad7da System.Threading.Monitor.Wait(System.Object, Int32, Boolean)
4bc1e1ac 2376f0d6 ServiceStack.Redis.PooledRedisClientManager.GetClient()
4bc1e1dc 2420bbc6 xxx.Service.CacheService.GetClient()
...
4bc1e234 24206fbe xxxBLL.GetxxxCount(System.Collections.Generic.Dictionary`2<System.String,System.Object>)
4bc1e3e0 216e25f9 DynamicClass.lambda_method(System.Runtime.CompilerServices.Closure, System.Web.Mvc.ControllerBase, System.Object[])
4bc1e3f0 238b86b7 System.Web.Mvc.ActionMethodDispatcher.Execute(System.Web.Mvc.ControllerBase, System.Object[])
...
4bc1eee0 2353d448 System.Web.Hosting.PipelineRuntime.ProcessRequestNotification(IntPtr, IntPtr, IntPtr, Int32)
4bc1efb8 00a9e3c2 [ContextTransitionFrame: 4bc1efb8]

圖片圖片

從卦中可以看到當(dāng)前有 371個(gè)線程在 PooledRedisClientManager.GetClient 中的 Wait 上出不來,那為什么出不來呢?

2. 探究源碼

要想找到這個(gè)答案,只能從源代碼中觀察,簡(jiǎn)化后的代碼如下:

public IRedisClient GetClient()
    {
        lock (writeClients)
        {
            AssertValidReadWritePool();
            RedisClient inActiveWriteClient;
            while ((inActiveWriteClient = GetInActiveWriteClient()) == null)
            {
                if (!Monitor.Wait(writeClients, PoolTimeout.Value))
                {
                    throw new TimeoutException("Redis Timeout expired. The timeout period elapsed prior to obtaining a connection from the pool. This may have occurred because all pooled connections were in use.");
                }
            }
        }
    }

    private RedisClient GetInActiveWriteClient()
    {
        int num = WritePoolIndex % writeClients.Length;
        for (int i = 0; i < ReadWriteHosts.Count; i++)
        {
            int num2 = (num + i) % ReadWriteHosts.Count;
            RedisEndPoint redisEndPoint = ReadWriteHosts[num2];
            for (int j = num2; j < writeClients.Length; j += ReadWriteHosts.Count)
            {
                if (writeClients[j] != null && !writeClients[j].Active && !writeClients[j].HadExceptions)
                {
                    return writeClients[j];
                }
            }
        }
        return null;
    }

仔細(xì)閱讀卦中代碼,之所以進(jìn)入Wait主要是因?yàn)?nbsp;GetInActiveWriteClient() 方法返回 null 所致,從異常信息看也知道此時(shí)是因?yàn)?writeClients 池已滿,那這個(gè)池是不是滿了呢?可以把 writeClients 數(shù)組挖出來,使用 !dso 命令。

0:429:x86> !dso
OS Thread Id: 0x22f4 (429)
ESP/REG  Object   Name
...
4BC1E0D0 0ea38d18 ServiceStack.Redis.RedisClient[]
4BC1E100 0ea38bb0 ServiceStack.Redis.PooledRedisClientManager
...

0:429:x86> !da 0ea38d18
Name:        ServiceStack.Redis.RedisClient[]
MethodTable: 237af1c0
EEClass:     0129a224
Size:        52(0x34) bytes
Array:       Rank 1, Number of elements 10, Type CLASS
Element Methodtable: 237ae954
[0] 0ea38dd4
[1] 0a9f9f58
[2] 0296e468
[3] 0c9786a0
[4] 0a9fe768
[5] 04a21f24
[6] 0aa0d758
[7] 10946d90
[8] 04a8c8b0
[9] 02a2a2a0

0:429:x86> !DumpObj /d 0ea38dd4
Name:        ServiceStack.Redis.RedisClient
MethodTable: 237ae954
EEClass:     2375d154
Size:        152(0x98) bytes
File:        C:\Windows\xxx\ServiceStack.Redis.dll
Fields:
...
0129aa48  4000169       7d       System.Boolean  1 instance        1 <Active>k__BackingField
...

從卦中看 writeClients 池只有10個(gè)大小,并且都是 Active=1,所以返回 null 就不足為奇了。

3. 為什么client都在使用中呢

要想找到這個(gè)答案,需要看下上層的 xxxBLL.GetxxxCount 方法是如何調(diào)用的,為了保護(hù)隱私,就多模糊一點(diǎn)。

圖片圖片

從圖中可以看到,問題出在用 foreach 去不斷的迭代 ServiceStack.Redis 導(dǎo)致 writeClient 池耗盡,導(dǎo)致大量的請(qǐng)求在不斷的阻塞,不要忘了這里有371個(gè)線程在爭(zhēng)搶哦,真是大忌。

接下來順帶洞察下這個(gè) foreach 要 foreach 多少次?繼續(xù)用 !dso 去挖。

0:429:x86> !DumpObj /d 077cec20
Name:        System.Collections.Generic.List`1[[xxxInfo, xxx]]
MethodTable: 241ad794
EEClass:     0193166c
Size:        24(0x18) bytes
File:        C:\Windows\Microsoft.Net\assembly\GAC_32\mscorlib\v4.0_4.0.0.0__b77a5c561934e089\mscorlib.dll
Fields:
      MT    Field   Offset                 Type VT     Attr    Value Name
01860eec  4001891        4     System.__Canon[]  0 instance 077e0048 _items
0129c9b0  4001892        c         System.Int32  1 instance      307 _size
0129c9b0  4001893       10         System.Int32  1 instance      307 _version
01296780  4001894        8        System.Object  0 instance 00000000 _syncRoot
01860eec  4001895        4     System.__Canon[]  0   static  <no information>

從卦中看當(dāng)前需要循環(huán)307次,也就再次驗(yàn)證了池耗盡的說法,我知道心細(xì)的朋友肯定會(huì)說,卡死這個(gè)我認(rèn),但能導(dǎo)致 CPU爆高 我就不能理解了,其實(shí)你仔細(xì)閱讀源碼就能理解了,這是經(jīng)典的 鎖護(hù)送(lock convoy) 現(xiàn)象,因?yàn)闈M足如下兩個(gè)條件。

  1. 多線程的 foreach 高頻調(diào)用。
  2. Wait 導(dǎo)致線程暫停進(jìn)入等待隊(duì)列。

4. 如何解決這個(gè)問題

知道了前因后果,解決起來就比較簡(jiǎn)單了,三種做法:

  1. 將 foreach 迭代 改成 批量化處理,減少對(duì) writeclient 的租用。
  2. 增加 writeclient 的池大小,官網(wǎng)有所介紹。
  3. ServiceStack.Redis 的版本非常老,又是收費(fèi)的,最好換掉已除后患。

三、總結(jié)

這次生產(chǎn)事故分析還是非常有意思的,一個(gè)看似阻塞的問題也會(huì)引發(fā)CPU爆高,超出了一些人的認(rèn)知吧,對(duì),其實(shí)它就是經(jīng)典的 lock convoy 現(xiàn)象,大家有任何dump問題可以找我,一如既往的免費(fèi)分析。


責(zé)任編輯:武曉燕 來源: 一線碼農(nóng)聊技術(shù)
相關(guān)推薦

2021-10-27 07:30:32

.NETCPU論壇

2023-05-12 17:42:22

CPUMES系統(tǒng)

2022-10-24 07:48:37

.NETCPUGC

2024-03-15 15:15:53

.NETCPU系統(tǒng)

2023-07-31 22:29:20

CPU.NETAPI

2021-05-17 07:43:06

Web站 CPU.NET

2024-12-31 09:36:06

2023-11-01 10:46:12

.NET線程同步

2021-04-21 07:38:41

CPU游戲站程序

2022-02-23 10:12:58

CPUWeb.NET

2024-03-28 12:56:36

2023-04-06 10:52:18

2023-03-26 20:24:50

ERP網(wǎng)站系統(tǒng)

2024-03-26 00:44:53

.NETCIM系統(tǒng)

2024-07-01 13:00:24

.NET網(wǎng)絡(luò)邊緣計(jì)算

2022-01-17 21:28:36

管理系統(tǒng).NET

2023-06-29 17:55:00

.NET日志WinDbg

2024-07-09 11:51:20

Windows線程池源碼

2024-11-29 10:06:59

2021-11-02 07:54:41

內(nèi)存.NET 系統(tǒng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)