awk檢視與統計nginx訪問日誌

2021-08-08 08:52:03 字數 729 閱讀 8715

切割日誌

查詢7月16日訪問log匯出到17.log檔案中:

cat web_access.log | egrep "17/jul/2017" | sed  -n '/00:00:00/,/23:59:59/p' > /tmp/16.log

檢視訪問量前10的ip

awk '' web_access.log | sort | uniq -c | sort -nr | head -n 10 

檢視訪問前10的url

awk '' web_access.log | sort | uniq -c | sort -nr | head -n 10

查詢訪問最頻繁的url

awk '' web_access.log | sort | uniq -c | sort -n -k 1 -r | more

查詢訪問最頻繁的ip

awk '' web_access.log | sort | uniq -c | sort -n -k 1 -r | more

根據訪問ip統計uv

awk '' web_access.log | sort | uniq -c | wc -l

統計訪問url統計pv

awk '' web_access.log | wc -l

根據時間段統計檢視日誌

cat web_access.log | sed -n '/17\/jul\/2017:12/,/17\/jul\/2017:13/p' | more

Awk分析nginx訪問日誌

awk是linux系統下乙個處理文字的程式語言工具,能用簡短的程式處理標準輸入或檔案 資料排序 計算以及生成報表等等,應用非常廣泛。預設日誌格式 remote addr remote user time local request status body bytes sent http refere...

Linux中awk統計ip訪問次數

現在有乙個檔案,資料量大概在200多萬條記錄,想用shell的awk做統計,檔案的格式如下 關鍵字 url ip位址 test 123 1 test 123 1 test 123 2 test2 12 1 test2 123 1 test2 123 2 現在想要統計的結果是 檢視同乙個關鍵字和url...

awk 分組求和與統計

一.分組求和 1.對第乙個進行分組,對第二列的資料進行累加 awk f end srcfile outfile 分組一般都是用x 2 x 3 的方式來實現的,其中x 2 中的 2為要分的組,當然可以多個分組,x 3 為要處理的值 例如 1 以第五列分組,求第四列和 root localhost wm...