自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Linux 運(yùn)維故障排查思路,有這篇文章就夠了

新聞 Linux
有時(shí)候會(huì)遇到一些疑難雜癥,并且監(jiān)控插件并不能一眼立馬發(fā)現(xiàn)問題的根源。這時(shí)候就需要登錄服務(wù)器進(jìn)一步深入分析問題的根源。

 [[332821]]

1. 背景

有時(shí)候會(huì)遇到一些疑難雜癥,并且監(jiān)控插件并不能一眼立馬發(fā)現(xiàn)問題的根源。這時(shí)候就需要登錄服務(wù)器進(jìn)一步深入分析問題的根源。那么分析問題需要有一定的技術(shù)經(jīng)驗(yàn)積累,并且有些問題涉及到的領(lǐng)域非常廣,才能定位到問題。所以,分析問題和踩坑是非常鍛煉一個(gè)人的成長和提升自我能力。如果我們有一套好的分析工具,那將是事半功倍,能夠幫助大家快速定位問題,節(jié)省大家很多時(shí)間做更深入的事情。

2. 說明

本篇文章主要介紹各種問題定位的工具以及會(huì)結(jié)合案例分析問題。

3. 分析問題的方法論

 

套用5W2H方法,可以提出性能分析的幾個(gè)問題

 

  • What-現(xiàn)象是什么樣的
  • When-什么時(shí)候發(fā)生
  • Why-為什么會(huì)發(fā)生
  • Where-哪個(gè)地方發(fā)生的問題
  • How much-耗費(fèi)了多少資源
  • How to do-怎么解決問題

4. cpu

4.1 說明

針對(duì)應(yīng)用程序,我們通常關(guān)注的是內(nèi)核CPU調(diào)度器功能和性能。

線程的狀態(tài)分析主要是分析線程的時(shí)間用在什么地方,而線程狀態(tài)的分類一般分為:

  1. on-CPU:執(zhí)行中,執(zhí)行中的時(shí)間通常又分為用戶態(tài)時(shí)間user和系統(tǒng)態(tài)時(shí)間sys。

  2. off-CPU:等待下一輪上CPU,或者等待I/O、鎖、換頁等等,其狀態(tài)可以細(xì)分為可執(zhí)行、匿名換頁、睡眠、鎖、空閑等狀態(tài)。

 

如果大量時(shí)間花在CPU上,對(duì)CPU的剖析能夠迅速解釋原因;如果系統(tǒng)時(shí)間大量處于off-cpu狀態(tài),定位問題就會(huì)費(fèi)時(shí)很多。但是仍然需要清楚一些概念:

 

  • 處理器
  • 硬件線程
  • CPU內(nèi)存緩存
  • 時(shí)鐘頻率
  • 每指令周期數(shù)CPI和每周期指令數(shù)IPC
  • CPU指令
  • 使用率
  • 用戶時(shí)間/內(nèi)核時(shí)間
  • 調(diào)度器
  • 運(yùn)行隊(duì)列
  • 搶占
  • 多進(jìn)程
  • 多線程
  • 字長

4.2 分析工具

 

說明:

 

  • uptime,vmstat,mpstat,top,pidstat 只能查詢到cpu及負(fù)載的的使用情況。
  • perf可以跟著到進(jìn)程內(nèi)部具體函數(shù)耗時(shí)情況,并且可以指定內(nèi)核函數(shù)進(jìn)行統(tǒng)計(jì),指哪打哪。

4.3 使用方式

  1. //查看系統(tǒng)cpu使用情況top 
  2. //查看所有cpu核信息mpstat -P ALL 1 
  3. //查看cpu使用情況以及平均負(fù)載vmstat 1 
  4. //進(jìn)程cpu的統(tǒng)計(jì)信息pidstat -u 1 -p pid 
  5. //跟蹤進(jìn)程內(nèi)部函數(shù)級(jí)cpu使用情況 perf top -p pid -e cpu-clock 

5. 內(nèi)存

5.1 說明

 

內(nèi)存是為提高效率而生,實(shí)際分析問題的時(shí)候,內(nèi)存出現(xiàn)問題可能不只是影響性能,而是影響服務(wù)或者引起其他問題。同樣對(duì)于內(nèi)存有些概念需要清楚:

 

  • 主存
  • 虛擬內(nèi)存
  • 常駐內(nèi)存
  • 地址空間
  • OOM
  • 頁緩存
  • 缺頁
  • 換頁
  • 交換空間
  • 交換
  • 用戶分配器libc、glibc、libmalloc和mtmalloc
  • LINUX內(nèi)核級(jí)SLUB分配器

5.2 分析工具

說明:

  • free,vmstat,top,pidstat,pmap只能統(tǒng)計(jì)內(nèi)存信息以及進(jìn)程的內(nèi)存使用情況。

  • valgrind 可以分析內(nèi)存泄漏問題。

  • dtrace 動(dòng)態(tài)跟蹤。需要對(duì)內(nèi)核函數(shù)有很深入的了解,通過D語言編寫腳本完成跟蹤。

5.3 使用方式

  1. //查看系統(tǒng)內(nèi)存使用情況free -m 
  2. //虛擬內(nèi)存統(tǒng)計(jì)信息vmstat 1 
  3. //查看系統(tǒng)內(nèi)存情況top 
  4. //1s采集周期,獲取內(nèi)存的統(tǒng)計(jì)信息pidstat -p pid -r 1 
  5. //查看進(jìn)程的內(nèi)存映像信息pmap -d pid 
  6. //檢測程序內(nèi)存問題valgrind --tool=memcheck --leak-check=full --log-file=./log.txt ./程序名 

6. 磁盤IO

6.1 說明

 

磁盤通常是計(jì)算機(jī)最慢的子系統(tǒng),也是最容易出現(xiàn)性能瓶頸的地方,因?yàn)榇疟P離 CPU 距離最遠(yuǎn)而且 CPU 訪問磁盤要涉及到機(jī)械操作,比如轉(zhuǎn)軸、尋軌等。訪問硬盤和訪問內(nèi)存之間的速度差別是以數(shù)量級(jí)來計(jì)算的,就像1天和1分鐘的差別一樣。要監(jiān)測 IO 性能,有必要了解一下基本原理和 Linux 是如何處理硬盤和內(nèi)存之間的 IO 的。

 

在理解磁盤IO之前,同樣我們需要理解一些概念,例如:

  • 文件系統(tǒng)
  • VFS
  • 文件系統(tǒng)緩存
  • 頁緩存page cache
  • 緩沖區(qū)高速緩存buffer cache
  • 目錄緩存
  • inode
  • inode緩存
  • noop調(diào)用策略

6.2 分析工具

6.3 使用方式

  1. //查看系統(tǒng)io信息iotop 
  2. //統(tǒng)計(jì)io詳細(xì)信息iostat -d -x -k 1 10 
  3. //查看進(jìn)程級(jí)io的信息pidstat -d 1 -p pid 
  4. //查看系統(tǒng)IO的請(qǐng)求,比如可以在發(fā)現(xiàn)系統(tǒng)IO異常時(shí),可以使用該命令進(jìn)行調(diào)查,就能指定到底是什么原因?qū)е碌腎O異常perf record -e block:block_rq_issue -ag^Cperf report 

7. 網(wǎng)絡(luò)

7.1 說明

 

網(wǎng)絡(luò)的監(jiān)測是所有 Linux 子系統(tǒng)里面最復(fù)雜的,有太多的因素在里面,比如:延遲、阻塞、沖突、丟包等,更糟的是與 Linux 主機(jī)相連的路由器、交換機(jī)、無線信號(hào)都會(huì)影響到整體網(wǎng)絡(luò)并且很難判斷是因?yàn)?Linux 網(wǎng)絡(luò)子系統(tǒng)的問題還是別的設(shè)備的問題,增加了監(jiān)測和判斷的復(fù)雜度。現(xiàn)在我們使用的所有網(wǎng)卡都稱為自適應(yīng)網(wǎng)卡,意思是說能根據(jù)網(wǎng)絡(luò)上的不同網(wǎng)絡(luò)設(shè)備導(dǎo)致的不同網(wǎng)絡(luò)速度和工作模式進(jìn)行自動(dòng)調(diào)整。

 

7.2 分析工具

7.3 使用方式

  1. //顯示網(wǎng)絡(luò)統(tǒng)計(jì)信息netstat -s 
  2. //顯示當(dāng)前UDP連接狀況netstat -nu 
  3. //顯示UDP端口號(hào)的使用情況netstat -apu 
  4. //統(tǒng)計(jì)機(jī)器中網(wǎng)絡(luò)連接各個(gè)狀態(tài)個(gè)數(shù)netstat -a | awk '/^tcp/ {++S[$NF]} END {for(a in S) print a, S[a]}' 
  5. //顯示TCP連接ss -t -a//顯示sockets摘要信息ss -s//顯示所有udp socketsss -u -a//tcp,etcp狀態(tài)sar -n TCP,ETCP 1 
  6. //查看網(wǎng)絡(luò)IOsar -n DEV 1//抓包以包為單位進(jìn)行輸出tcpdump -i eth1 host 192.168.1.1 and port 80 //抓包以流為單位顯示數(shù)據(jù)內(nèi)容tcpflow -cp host 192.168.1.1 

8. 系統(tǒng)負(fù)載

8.1 說明

 

Load 就是對(duì)計(jì)算機(jī)干活多少的度量(WikiPedia:the system Load is a measure of the amount of work that a compute system is doing)簡單的說是進(jìn)程隊(duì)列的長度。Load Average 就是一段時(shí)間(1分鐘、5分鐘、15分鐘)內(nèi)平均Load。

 

8.2 分析工具

8.3 使用方式

  1. //查看負(fù)載情況uptimetopvmstat 
  2. //統(tǒng)計(jì)系統(tǒng)調(diào)用耗時(shí)情況strace -c -p pid 
  3. //跟蹤指定的系統(tǒng)操作例如epoll_waitstrace -T -e epoll_wait -p pid 
  4. //查看內(nèi)核日志信息dmesg 

9. 火焰圖

9.1 說明

 

火焰圖(Flame Graph是 Bredan Gregg 創(chuàng)建的一種性能分析圖表,因?yàn)樗臉幼咏??而得名。
火焰圖主要是用來展示 CPU的調(diào)用棧。
y 軸表示調(diào)用棧,每一層都是一個(gè)函數(shù)。調(diào)用棧越深,火焰就越高,頂部就是正在執(zhí)行的函數(shù),下方都是它的父函數(shù)。
x 軸表示抽樣數(shù),如果一個(gè)函數(shù)在 x 軸占據(jù)的寬度越寬,就表示它被抽到的次數(shù)多,即執(zhí)行的時(shí)間長。注意,x 軸不代表時(shí)間,而是所有的調(diào)用棧合并后,按字母順序排列的。
火焰圖就是看頂層的哪個(gè)函數(shù)占據(jù)的寬度最大。只要有”平頂”(plateaus),就表示該函數(shù)可能存在性能問題。顏色沒有特殊含義,因?yàn)榛鹧鎴D表示的是 CPU 的繁忙程度,所以一般選擇暖色調(diào)。

 

常見的火焰圖類型有 On-CPU、Off-CPU、Memory、Hot/Cold、Differential等等。

9.2 安裝依賴庫

  1. //安裝systemtap,默認(rèn)系統(tǒng)已安裝yum install systemtap systemtap-runtime 
  2. //內(nèi)核調(diào)試庫必須跟內(nèi)核版本對(duì)應(yīng),例如:uname -r 2.6.18-308.el5kernel-debuginfo-2.6.18-308.el5.x86_64.rpmkernel-devel-2.6.18-308.el5.x86_64.rpmkernel-debuginfo-common-2.6.18-308.el5.x86_64.rpm 
  3. //安裝內(nèi)核調(diào)試庫debuginfo-install --enablerepo=debuginfo search kerneldebuginfo-install --enablerepo=debuginfo search glibc 

9.3 安裝

  1. git clone https://github.com/lidaohang/quick_location.gitcd quick_location 

9.4 CPU級(jí)別火焰圖

cpu占用過高,或者使用率提不上來,你能快速定位到代碼的哪塊有問題嗎?

一般的做法可能就是通過日志等方式去確定問題?,F(xiàn)在我們有了火焰圖,能夠非常清晰的發(fā)現(xiàn)哪個(gè)函數(shù)占用cpu過高,或者過低導(dǎo)致的問題。

9.4.1 on-CPU

 

 

cpu占用過高,執(zhí)行中的時(shí)間通常又分為用戶態(tài)時(shí)間user和系統(tǒng)態(tài)時(shí)間sys。
使用方式:

 

 

  1. //on-CPU usersh ngx_on_cpu_u.sh pid  
  2. //進(jìn)入結(jié)果目錄 cd ngx_on_cpu_u  
  3. //on-CPU kernelsh ngx_on_cpu_k.sh pid  
  4. //進(jìn)入結(jié)果目錄 cd ngx_on_cpu_k  
  5. //開一個(gè)臨時(shí)端口 8088 python -m SimpleHTTPServer 8088//打開瀏覽器輸入地址127.0.0.1:8088/pid.svg  

DEMO:

  1. #include <stdio.h> 
  2. #include <stdlib.h> 
  3.  
  4. void foo3() 
  5. {   
  6.  
  7. void foo2(){   
  8.   int i;   
  9.   for(i=0 ; i < 10; i++)        
  10.     foo3(); 
  11.  
  12. void foo1() 
  13. {   
  14.   int i; 
  15.   for(i = 0; i< 1000; i++) 
  16.       foo3(); 
  17.  
  18. int main(void
  19. {   
  20.   int i;   
  21.   for( i =0; i< 1000000000; i++) {       
  22.     foo1();       
  23.     foo2();   
  24.   } 

DEMO火焰圖:

9.4.2 off-CPU

cpu過低,利用率不高。等待下一輪CPU,或者等待I/O、鎖、換頁等等,其狀態(tài)可以細(xì)分為可執(zhí)行、匿名換頁、睡眠、鎖、空閑等狀態(tài)。

使用方式:

  1. // off-CPU usersh ngx_off_cpu_u.sh pid 
  2. //進(jìn)入結(jié)果目錄cd ngx_off_cpu_u 
  3. //off-CPU kernelsh ngx_off_cpu_k.sh pid 
  4. //進(jìn)入結(jié)果目錄cd ngx_off_cpu_k 
  5. //開一個(gè)臨時(shí)端口8088python -m SimpleHTTPServer 8088 
  6. //打開瀏覽器輸入地址127.0.0.1:8088/pid.svg 

官網(wǎng)DEMO:

9.5 內(nèi)存級(jí)別火焰圖

如果線上程序出現(xiàn)了內(nèi)存泄漏,并且只在特定的場景才會(huì)出現(xiàn)。這個(gè)時(shí)候我們怎么辦呢?有什么好的方式和工具能快速的發(fā)現(xiàn)代碼的問題呢?同樣內(nèi)存級(jí)別火焰圖幫你快速分析問題的根源。

使用方式:

  1. sh ngx_on_memory.sh pid 
  2. //進(jìn)入結(jié)果目錄cd ngx_on_memory 
  3. //開一個(gè)臨時(shí)端口8088python -m SimpleHTTPServer 8088 
  4. //打開瀏覽器輸入地址127.0.0.1:8088/pid.svg 

官網(wǎng)DEMO:

9.6 性能回退-紅藍(lán)差分火焰圖

你能快速定位CPU性能回退的問題么?如果你的工作環(huán)境非常復(fù)雜且變化快速,那么使用現(xiàn)有的工具是來定位這類問題是很具有挑戰(zhàn)性的。當(dāng)你花掉數(shù)周時(shí)間把根因找到時(shí),代碼已經(jīng)又變更了好幾輪,新的性能問題又冒了出來。主要可以用到每次構(gòu)建中,每次上線做對(duì)比看,如果損失嚴(yán)重可以立馬解決修復(fù)。

通過抓取了兩張普通的火焰圖,然后進(jìn)行對(duì)比,并對(duì)差異部分進(jìn)行標(biāo)色:紅色表示上升,藍(lán)色表示下降。差分火焰圖是以當(dāng)前(“修改后”)的profile文件作為基準(zhǔn),形狀和大小都保持不變。因此你通過色彩的差異就能夠很直觀的找到差異部分,且可以看出為什么會(huì)有這樣的差異。

使用方式:

  1. cd quick_location 
  2. //抓取代碼修改前的profile 1文件perf record -F 99 -p pid -g -- sleep 30perf script > out.stacks1 
  3. //抓取代碼修改后的profile 2文件perf record -F 99 -p pid -g -- sleep 30perf script > out.stacks2 
  4. //生成差分火焰圖:./FlameGraph/stackcollapse-perf.pl ../out.stacks1 > out.folded1./FlameGraph/stackcollapse-perf.pl ../out.stacks2 > out.folded2./FlameGraph/difffolded.pl out.folded1 out.folded2 | ./FlameGraph/flamegraph.pl > diff2.svg 

DEMO:

  1. //test.c 
  2. #include <stdio.h> 
  3. #include <stdlib.h> 
  4.  
  5. void foo3() 
  6. {   
  7.  
  8. void foo2() 
  9. {   
  10.   int i;   
  11.   for(i=0 ; i < 10; i++) 
  12.       foo3(); 
  13.  
  14. void foo1() 
  15. {   
  16.   int i;   
  17.   for(i = 0; i< 1000; i++)  
  18.       foo3(); 
  19.  
  20. int main(void
  21. {   
  22.   int i; 
  23.   for( i =0; i< 1000000000; i++) { 
  24.       foo1(); 
  25.       foo2();   
  26.   } 
  27.  
  28. //test1.c 
  29. #include <stdio.h> 
  30. #include <stdlib.h> 
  31.  
  32. void foo3() 
  33.  
  34.  
  35. void foo2() 
  36.   int i; 
  37.   for(i=0 ; i < 10; i++) 
  38.          foo3(); 
  39.  
  40. void foo1() 
  41. {   
  42.   int i;   
  43.   for(i = 0; i< 1000; i++)      
  44.     foo3(); 
  45.  
  46. void add() 
  47. {   
  48.   int i;   
  49.   for(i = 0; i< 10000; i++)      
  50.   foo3(); 
  51.  
  52. int main(void
  53. {   
  54.   int i;   
  55.   for( i =0; i< 1000000000; i++) { 
  56.     foo1(); 
  57.     foo2(); 
  58.     add(); 
  59.   } 

DEMO紅藍(lán)差分火焰圖:

 

10. 案例分析

10.1 接入層nginx集群異?,F(xiàn)象

 

通過監(jiān)控插件發(fā)現(xiàn)在 2017.09.25 19 點(diǎn)nginx集群請(qǐng)求流量出現(xiàn)大量的499,5xx狀態(tài)碼。并且發(fā)現(xiàn)機(jī)器cpu使用率升高,目前一直持續(xù)中。

 

10.2 分析nginx相關(guān)指標(biāo)

a) **分析nginx請(qǐng)求流量:

結(jié)論:

通過上圖發(fā)現(xiàn)流量并沒有突增,反而下降了,跟請(qǐng)求流量突增沒關(guān)系。

b) **分析nginx響應(yīng)時(shí)間

結(jié)論:

通過上圖發(fā)現(xiàn)nginx的響應(yīng)時(shí)間有增加可能跟nginx自身有關(guān)系或者跟后端upstream響應(yīng)時(shí)間有關(guān)系。

c) **分析nginx upstream響應(yīng)時(shí)間

結(jié)論:

通過上圖發(fā)現(xiàn)nginx upstream 響應(yīng)時(shí)間有增加,目前猜測可能后端upstream響應(yīng)時(shí)間拖住nginx,導(dǎo)致nginx出現(xiàn)請(qǐng)求流量異常。

10.3 分析系統(tǒng)cpu情況

a) **通過top觀察系統(tǒng)指標(biāo)

top

結(jié)論:

發(fā)現(xiàn)nginx worker cpu比較高

b) **分析nginx進(jìn)程內(nèi)部cpu情況

  1. perf top -p pid 

結(jié)論:

發(fā)現(xiàn)主要開銷在free,malloc,json解析上面

10.4 火焰圖分析cpu
a) **生成用戶態(tài)cpu火焰圖

  1. //on-CPU usersh ngx_on_cpu_u.sh pid 
  2. //進(jìn)入結(jié)果目錄cd ngx_on_cpu_u 
  3. //開一個(gè)臨時(shí)端口8088python -m SimpleHTTPServer 8088 
  4. //打開瀏覽器輸入地址127.0.0.1:8088/pid.svg 

結(jié)論:

發(fā)現(xiàn)代碼里面有頻繁的解析json操作,并且發(fā)現(xiàn)這個(gè)json庫性能不高,占用cpu挺高。

10.5 案例總結(jié)

a) 分析請(qǐng)求流量異常,得出nginx upstream后端機(jī)器響應(yīng)時(shí)間拉長

b) 分析nginx進(jìn)程cpu高,得出nginx內(nèi)部模塊代碼有耗時(shí)的json解析以及內(nèi)存分配回收操作

10.5.1 深入分析

根據(jù)以上兩點(diǎn)問題分析的結(jié)論,我們進(jìn)一步深入分析。

后端upstream響應(yīng)拉長,最多可能影響nginx的處理能力。但是不可能會(huì)影響nginx內(nèi)部模塊占用過多的cpu操作。并且當(dāng)時(shí)占用cpu高的模塊,是在請(qǐng)求的時(shí)候才會(huì)走的邏輯。不太可能是upstram后端拖住nginx,從而觸發(fā)這個(gè)cpu的耗時(shí)操作。

10.5.2 解決方式

遇到這種問題,我們優(yōu)先解決已知的,并且非常明確的問題。那就是cpu高的問題。解決方式先降級(jí)關(guān)閉占用cpu過高的模塊,然后進(jìn)行觀察。經(jīng)過降級(jí)關(guān)閉該模塊cpu降下來了,并且nginx請(qǐng)求流量也正常了。之所以會(huì)影響upstream時(shí)間拉長,因?yàn)閡pstream后端的服務(wù)調(diào)用的接口可能是個(gè)環(huán)路再次走回到nginx。

11.參考資料

  • http://www.brendangregg.com/index.html

  • http://www.brendangregg.com/FlameGraphs/cpuflamegraphs.html

  • http://www.brendangregg.com/FlameGraphs/memoryflamegraphs.html

  • http://www.brendangregg.com/FlameGraphs/offcpuflamegraphs.html

  • http://www.brendangregg.com/blog/2014-11-09/differential-flame-graphs.html

  • https://github.com/openresty/openresty-systemtap-toolkit

  • https://github.com/brendangregg/FlameGraph

  • https://www.slideshare.net/brendangregg/blazing-performance-with-flame-graphs

 【編輯推薦】

 

責(zé)任編輯:張燕妮 來源: 高效運(yùn)維
相關(guān)推薦

2019-10-31 09:48:53

MySQL數(shù)據(jù)庫事務(wù)

2017-03-30 22:41:55

虛擬化操作系統(tǒng)軟件

2017-12-12 12:53:09

2017-03-10 21:04:04

Android適配

2021-11-10 07:47:48

Traefik邊緣網(wǎng)關(guān)

2017-03-07 15:35:26

Android適配 界面

2019-07-10 15:15:23

JVM虛擬機(jī)Java

2021-07-21 16:22:40

運(yùn)維架構(gòu)技術(shù)

2022-05-27 08:18:00

HashMapHash哈希表

2024-07-05 11:01:13

2019-09-25 09:17:43

物聯(lián)網(wǎng)技術(shù)信息安全

2024-03-26 00:00:06

RedisZSet排行榜

2018-12-19 08:46:15

運(yùn)維可視化交付

2018-10-31 17:22:25

AI人工智能芯片

2021-06-04 07:27:24

sourcemap前端技術(shù)

2020-09-25 11:10:51

運(yùn)維故障排查監(jiān)控

2021-10-28 17:05:11

IT運(yùn)維故障

2020-10-13 07:44:40

緩存雪崩 穿透

2024-02-28 08:59:47

2018-08-17 09:14:43

餓了么容器演進(jìn)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)