使用shell命令分析統計日誌

2021-12-30 00:56:31 字數 648 閱讀 8501

需要統計使用者日誌資訊,分析出使用者行為時,用shell往往能方便地取出很多資料,取出後再放置到excel中統計。

grep "loadcustomprocess" /home/workflow/socket.txt | awk -f " " ''|awk -f ":" ''|sort -nr

查詢出現「info",出現量前10的記錄:

grep "info" /usr/share/tomcat6/logs/flowplatform.log| awk -f " " ''|sort |uniq -c|sort -nr

解析:grep "loadcustomprocess" /home/workflow/socket.txt 找出檔案/home/workflow/socket.txt中包含loadcustomprocess的行

uniq -c:統計連續出現的次數(注意是連續),因此在uniq -c前需先用sort才能有sql中count的效果

awk sql語句中的select欄位,「-f " "」表示按照空格對每行資料進行分隔,得到的每個單元就是乙個字段,而「$7」就是第七個字段

sort 把結果排序,為後面的彙總做準備,

sort -nr 是按照數值大小倒序排列,相當於sql中的order by ... desc,

head -10 取前十條

使用shell命令分析統計日誌

使用者需要登入統計資訊,當分析使用者行為,使用shell通常可以很容易地取出了大量的資料。刪除,然後放入excel統計。例如 統計日誌含有 loadcustomprocess這個位址的訪問,按訪問耗時排序 grep loadcustomprocess home workflow socket.txt...

使用shell指令碼統計日誌資訊

寫乙個完整的指令碼 shell python 統計各個 ip 錯誤日誌 error 的次數並按錯誤數由高到低輸出統計情況 上面例子log 的輸出結果如下 ip error cnt 118.124.94.110 3 118.124.94.173 2 118.124.94.27 1 118.124.94...

Apache日誌分析常用Shell命令

1 檢視apache程序 psaux grep httpd grep vgrep wc l2 檢視80埠的tcp連線 netstat tan grep established grep 80 wc l 3 通過日誌檢視當天ip連線數,過濾重複 cataccess log grep 20 oct 20...