自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

關于Linux圖形化之流量監(jiān)控和IO監(jiān)控的了解

運維 系統(tǒng)運維
關于Linux性能監(jiān)控相信大家已經(jīng)小有了解,對于IO篇,讓我們先分析一些具體的情況,在這些情況下I/O會成為系統(tǒng)的瓶頸。我們會用到工具top,vmstat,iostat,sar等。每一個工具的輸出都從不同的方面反映除系統(tǒng)的性能情況。

關于Linux性能監(jiān)控相信大家已經(jīng)小有了解,對于IO篇,讓我們先分析一些具體的情況,在這些情況下I/O會成為系統(tǒng)的瓶頸。我們會用到工具top,vmstat,iostat,sar等。每一個工具的輸出都從不同的方面反映除系統(tǒng)的性能情況。

  Linux性能監(jiān)控情況1:同一時間進行大量的I/O操作

  在這種情況時我們會發(fā)現(xiàn)CPUwa時間百分比會上升,證明系統(tǒng)的idle時間大部分都是在等待I/O操作。

  # vmstat 1

  procs -----memory----- ---swap---io---- --system--cpu----

  r b swpd free buff cache si so bi bo in cs us sy id wa

  3 2 0 55452 9236 1739020 0 0 9352 0 2580 8771 20 24 0 57

  2 3 0 53888 9232 1740836 0 0 14860 0 2642 8954 23 25 0 52

  2 2 0 51856 9212 1742928 0 0 12688 0 2636 8487 23 25 0 52

  從這個輸出我們可以看到CPU50%的時間都在等待I/O操作,我們還可以看到系統(tǒng)的bi值很大,證明系統(tǒng)有大量的I/O請求將磁盤內(nèi)容讀入內(nèi)存。

  沒有很好的工具能看到到底是哪個進程在進行I/O讀寫。但我們可以通過top命令的輸出來猜測

  # top -d 1

  top - 19:45:07 up 1:40, 3 users, load average: 6.36, 5.87, 4.40

  Tasks: 119 total, 3 running, 116 sleeping, 0 stopped, 0 zombie

  Cpu(s): 5.9% us, 87.1% sy, 0.0% ni, 0.0% id, 5.9% wa, 1.0% hi, 0.0% si

  Mem: 2075672k total, 2022668k used, 53004k free, 7156k buffers

  Swap: 2031608k total, 132k used, 2031476k free, 1709372k cached

  PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ nFLT COMMAND

  3069 root 5 -10 450m 303m 280m S 61.5 15.0 10:56.68 4562 vmware-vmx

  3016 root 5 -10 447m 300m 280m S 21.8 14.8 12:22.83 3978 vmware-vmx

  3494 root 5 -10 402m 255m 251m S 3.0 12.6 1:08.65 3829 vmware-vmx

  3624 root 5 -10 401m 256m 251m S 1.0 12.6 0:29.92 3747 vmware-vmx

  將top的輸出通過faults進行排序。我們可以看到vmware產(chǎn)生最多的page faults。也就是說它進行了大量的IO操作。

Linux性能監(jiān)控情況2:管道太小

  任何I/O操作都需要一定的時間,而且這些時間對于硬盤來說是確定的,它包含磁盤旋轉(zhuǎn)的延時RDrotation delay)和磁頭搜索時間DSdisk seek)。RD由磁盤轉(zhuǎn)速(RPM)決定。RD是磁盤旋轉(zhuǎn)一周所需時間的一半。如RPM10000.

  RPS=RPM/60=166

  1/166=0.0006=6ms 磁盤旋轉(zhuǎn)一周要6毫秒

  RD=6ms/2=3ms

  磁盤平均搜索時間是3ms,數(shù)據(jù)傳輸?shù)钠骄訒r是2ms,這樣一次I/O操作的平均時間是:

  3ms+3ms+2ms=8ms

  IOPS=1000/8=125 這塊磁盤的每秒IO數(shù)(IOPS)為125。所以對于10000RPM的磁盤來說它所能承受的IO操作在IOPS120150之間。如果系統(tǒng)的I/O請求超過這個值,就會使磁盤成為系統(tǒng)的瓶頸。

  對與系統(tǒng)而言有兩種不同種類的I/O壓力,連續(xù)I/O和隨機I/O。

  連續(xù)I/O常常出現(xiàn)在企業(yè)級數(shù)據(jù)庫這樣的應用中,需要連續(xù)的讀取大量數(shù)據(jù)。這種系統(tǒng)的性能依靠它讀取和移動數(shù)據(jù)的大小和快慢。我們用iostat來監(jiān)控,會發(fā)現(xiàn)rKB/s,wKB/s會很高。

  Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util

  /dev/sda 0.00 12891.43 0.00 105.71 0.00 106080.00 0.00 53040.00 1003.46 1099.43 3442.43 26.49 280.00

  從輸出我們看到w/s=105,wKB/s=53040.所以53040/105=505KB per I/O.

  對于隨機I/O的系統(tǒng)來說性能的關注點不在搜傳輸數(shù)據(jù)的大小和速度,而是在磁盤的IOPS。這類系統(tǒng)的I/O請求比較小但是數(shù)量很大,如Web服務器和Mail服務器。他們的性能主要依賴每秒鐘可處理的請求數(shù):

  # iostat -x 1

  avg-cpu: %user %nice %sys %idle

  2.04 0.00 97.96 0.00

  Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util

  /dev/sda 0.00 633.67 3.06 102.31 24.49 5281.63 12.24 2640.82 288.89 73.67 113.89 27.22 50.00

  從輸出我們看到w/s=102,wKB/s=2640.所以2640/102=23KB per I/O.因此對于連續(xù)I/O系統(tǒng)來說我們要關注系統(tǒng)讀取大量數(shù)據(jù)的能力即KB per request.對于隨機I/O系統(tǒng)我們注重IOPS.

責任編輯:春曉
相關推薦

2014-12-31 15:05:11

Android流量監(jiān)控

2010-05-26 18:31:51

Linux性能監(jiān)控

2011-11-08 21:47:37

Linux 監(jiān)控 IO

2010-06-07 14:23:40

Linux流量監(jiān)控

2010-01-27 10:01:20

2010-06-07 13:53:06

Linux 內(nèi)存監(jiān)控

2010-05-26 16:44:27

Linux流量監(jiān)控

2010-06-11 11:28:39

Linux流量監(jiān)控

2011-01-06 13:45:51

linux流量監(jiān)控iftop

2024-12-10 13:17:41

2010-05-27 12:52:42

Linux流量監(jiān)控軟件

2010-06-04 14:04:06

2011-03-31 10:24:15

2010-06-04 13:49:24

Linux流量監(jiān)控

2010-06-01 10:32:04

linux Mrtg

2011-04-06 11:36:32

2010-05-25 08:56:41

ubuntu Grub

2011-04-06 13:50:34

LinuxMRTG監(jiān)控

2019-03-28 08:00:00

Linux磁盤IO監(jiān)控存儲設備

2010-05-26 17:39:38

Linux性能監(jiān)控
點贊
收藏

51CTO技術棧公眾號