使用shell命令分析統計日誌

2021-09-07 01:58:07 字數 745 閱讀 2419

使用者需要登入統計資訊,當分析使用者行為,使用shell通常可以很容易地取出了大量的資料。刪除,然後放入excel統計。

例如:統計日誌含有

loadcustomprocess這個位址的訪問,按訪問耗時排序:

grep "loadcustomprocess" /home/workflow/socket.txt | awk -f " " ''|awk -f ":" ''|sort -nr 

查詢出現「info",出現量前10的記錄:

grep "info" /usr/share/tomcat6/logs/flowplatform.log| awk -f " " ''|sort |uniq -c|sort -nr

解析:grep "loadcustomprocess" /home/workflow/socket.txt 找出檔案/home/workflow/socket.txt中包括loadcustomprocess的行

uniq -c:統計連續出現的次數(注意是連續),因此在uniq -c前需先用sort才幹有sql中count的效果

awk sql語句中的select欄位,「-f " "」表示依照空格對每行資料進行分隔,得到的每乙個單元就是乙個字段。而「$7」就是第七個字段,假設取第7、8兩個字段,而且兩個欄位用tab號隔開。則''

sort 把結果排序,為後面的彙總做準備,

sort -nr  是依照數值大小倒序排列,相當於sql中的order by ... desc,

head -10  就拿前十

使用shell命令分析統計日誌

需要統計使用者日誌資訊,分析出使用者行為時,用shell往往能方便地取出很多資料,取出後再放置到excel中統計。grep loadcustomprocess home workflow socket.txt awk f awk f sort nr 查詢出現 info 出現量前10的記錄 grep ...

使用shell指令碼統計日誌資訊

寫乙個完整的指令碼 shell python 統計各個 ip 錯誤日誌 error 的次數並按錯誤數由高到低輸出統計情況 上面例子log 的輸出結果如下 ip error cnt 118.124.94.110 3 118.124.94.173 2 118.124.94.27 1 118.124.94...

Apache日誌分析常用Shell命令

1 檢視apache程序 psaux grep httpd grep vgrep wc l2 檢視80埠的tcp連線 netstat tan grep established grep 80 wc l 3 通過日誌檢視當天ip連線數,過濾重複 cataccess log grep 20 oct 20...