歡迎來到Linux教程網
Linux教程網
Linux教程網
Linux教程網
Linux教程網 >> Linux基礎 >> 關於Linux >> sar使用說明

sar使用說明

日期:2017/3/1 16:17:51   编辑:關於Linux
sar使用說明 sar這東西,一開始還以為是內部有的,原來是外部的工具,可以到http://pagesperso-orange.fr/sebastien.godard/download.html去下載 1 安裝 tar zxvf xxx.tar.gz ./configure make make install 2 使用    pidstat 2 5 //每隔2秒,顯示5次,所有活動進程的CPU使用情況 pidstat -p 3132 2 5 //每隔2秒,顯示5次,PID為3132的進程的CPU使用情況顯示 pidstat -p 3132 2 5 -r //每隔2秒,顯示5次,PID為3132的進程的內存使用情況顯示    查看CPU使用情況 sar 2 5 //每隔2秒,顯示5次,CPU使用的情況    %usr:CPU處在用戶模式下的時間百分比。   %sys:CPU處在系統模式下的時間百分比。   %wio:CPU等待輸入輸出完成時間的百分比。   %idle:CPU空閒時間百分比。 在所有的顯示中,我們應主要注意%wio和%idle,%wio的值過高,表示硬盤存在I/O瓶頸, %idle值高,表示CPU較空閒,如果%idle值高但系統響應慢時,有可能是CPU等待分配內存, 此時應加大內存容量。%idle值如果持續低於10,那麼系統的CPU處理能力相對較低,表 明系統中最需要解決的資源是CPU。     sar 1 10 > data.txt //每隔1秒,寫入10次,把CPU使用數據保存到data.txt文件中。 sar 1 0 -e 15:00:00 > data.txt //每隔1秒記錄CPU的使用情況,直到15點,數據將保存到data.txt文件中。(-e 參數表示結束時間,注意時間格式:必須為hh:mm:ss格式) sar 1 0 -r -e 15:00:00 > data.txt //每隔1秒記錄內存使用情況,直到15點,數據將保存到data.txt文件中。 sar 1 0 -n DEV -e 15:00:00 > data.txt //每隔1秒記錄網絡使用情況,直到15點,數據將保存到data.txt文件中。     例二:使用命行sar -v t n 例如,每30秒采樣一次,連續采樣5次,觀察核心表的狀態,需鍵入如下命令: # sar -v 30 5 屏幕顯示:       SCO_SV scosysv 3.2v5.0.5 i80386 10/01/2001       10:33:23 proc-sz ov inod-sz ov file-sz ov lock-sz   (-v) 10:33:53 305/ 321  0 1337/2764  0 1561/1706 0 40/ 128 10:34:23 308/ 321  0 1340/2764  0 1587/1706 0 37/ 128 10:34:53 305/ 321  0 1332/2764  0 1565/1706 0 36/ 128 10:35:23 308/ 321  0 1338/2764  0 1592/1706 0 37/ 128 10:35:53 308/ 321  0 1335/2764  0 1591/1706 0 37/ 128 顯示內容包括: proc-sz:目前核心中正在使用或分配的進程表的表項數,由核心參數MAX-PROC控制。   inod-sz:目前核心中正在使用或分配的i節點表的表項數,由核心參數 MAX-INODE控制。   file-sz: 目前核心中正在使用或分配的文件表的表項數,由核心參數MAX-FILE控 制。   ov:溢出出現的次數。   Lock-sz:目前核心中正在使用或分配的記錄加鎖的表項數,由核心參數MAX-FLCKRE 控制。 顯示格式為 實際使用表項/可以使用的表項數 顯示內容表示,核心使用完全正常,三個表沒有出現溢出現象,核心參數不需調整,如 果出現溢出時,要調整相應的核心參數,將對應的表項數加大。 例三:使用命行sar -d t n 例如,每30秒采樣一次,連續采樣5次,報告設備使用情況,需鍵入如下命令: # sar -d 30 5 屏幕顯示:       SCO_SV scosysv 3.2v5.0.5 i80386 10/01/2001 11:06:43 device %busy   avque   r+w/s  blks/s  avwait avserv (-d) 11:07:13 wd-0   1.47   2.75   4.67   14.73   5.50 3.14 11:07:43 wd-0   0.43   18.77   3.07   8.66   25.11 1.41 11:08:13 wd-0   0.77   2.78   2.77   7.26   4.94 2.77 11:08:43 wd-0   1.10   11.18   4.10   11.26   27.32 2.68 11:09:13 wd-0   1.97   21.78   5.86   34.06   69.66 3.35 Average wd-0   1.15   12.11   4.09   15.19   31.12 2.80 顯示內容包括: device: sar命令正在監視的塊設備的名字。   %busy: 設備忙時,傳送請求所占時間的百分比。   avque: 隊列站滿時,未完成請求數量的平均值。   r+w/s: 每秒傳送到設備或從設備傳出的數據量。   blks/s: 每秒傳送的塊數,每塊512字節。   avwait: 隊列占滿時傳送請求等待隊列空閒的平均時間。   avserv: 完成傳送請求所需平均時間(毫秒)。 在顯示的內容中,wd-0是硬盤的名字,%busy的值比較小,說明用於處理傳送請求的有 效時間太少,文件系統效率不高,一般來講,%busy值高些,avque值低些,文件系統 的效率比較高,如果%busy和avque值相對比較高,說明硬盤傳輸速度太慢,需調整。 例四:使用命行sar -b t n 例如,每30秒采樣一次,連續采樣5次,報告緩沖區的使用情況,需鍵入如下命令: # sar -b 30 5 屏幕顯示:   SCO_SV scosysv 3.2v5.0.5 i80386 10/01/2001 14:54:59 bread/s lread/s %rcache bwrit/s lwrit/s %wcache pread/s pwrit/s (-b) 14:55:29 0  147  100  5  21  78   0   0 14:55:59 0  186  100  5  25  79   0   0 14:56:29 4  232   98  8  58  86   0   0 14:56:59 0  125  100  5  23  76   0   0 14:57:29 0   89  100  4  12  66   0   0 Average  1  156   99  5  28  80   0   0 顯示內容包括: bread/s: 每秒從硬盤讀入系統緩沖區buffer的物理塊數。 lread/s: 平均每秒從系統buffer讀出的邏輯塊數。 %rcache: 在buffer cache中進行邏輯讀的百分比。 bwrit/s: 平均每秒從系統buffer向磁盤所寫的物理塊數。 lwrit/s: 平均每秒寫到系統buffer邏輯塊數。 %wcache: 在buffer cache中進行邏輯讀的百分比。 pread/s: 平均每秒請求物理讀的次數。 pwrit/s: 平均每秒請求物理寫的次數。 在顯示的內容中,最重要的是%cache和%wcache兩列,它們的值體現著buffer的使用效 率,%rcache的值小於90或者%wcache的值低於65,應適當增加系統buffer的數量,buffer 數量由核心參數NBUF控制,使%rcache達到90左右,%wcache達到80左右。但buffer參數 值的多少影響I/O效率,增加buffer,應在較大內存的情況下,否則系統效率反而得不到 提高。 例五:使用命行sar -g t n 例如,每30秒采樣一次,連續采樣5次,報告串口I/O的操作情況,需鍵入如下命令: # sar -g 30 5 屏幕顯示: SCO_SV scosysv 3.2v5.0.5 i80386  11/22/2001 17:07:03  ovsiohw/s  ovsiodma/s  ovclist/s (-g) 17:07:33   0.00   0.00   0.00 17:08:03   0.00   0.00   0.00 17:08:33   0.00   0.00   0.00 17:09:03   0.00   0.00   0.00 17:09:33   0.00   0.00   0.00 Average    0.00   0.00   0.00 顯示內容包括: ovsiohw/s:每秒在串口I/O硬件出現的溢出。 ovsiodma/s:每秒在串口I/O的直接輸入輸出通道高速緩存出現的溢出。 ovclist/s :每秒字符隊列出現的溢出。 在顯示的內容中,每一列的值都是零,表明在采樣時間內,系統中沒有發生串口I/O溢 出現象。
Copyright © Linux教程網 All Rights Reserved