使用Shell對apache日誌進行分析

2021-06-02 07:57:54 字數 1588 閱讀 8697

人人網乙個筆試題就是要求用shell分析apache日誌(/usr/local/apache2/logs/access_log),要求列出當天訪問次數最多的ip,下面是典型的訪問資訊的log。用shell列出訪問最多的20個ip:

命令:cut -d- -f 1 /usr/local/apache2/logs/access_log |uniq -c | sort -rn | head -20

原理:cut

-d, --delimiter=delim

use delim instead of tab for field delimiter

表示用-分割,然後-f 1 

-f, --fields=list

select only these fields;  also print any line that contains  no

delimiter character, unless the -s option is specified

表示列印第一部分,就是ip

uniq 是將重複行去掉, -c表示前面前面加上數目,

sort -rn 就是按照數字從大到小排序,

head -20取前面20行

最後列印的結果大概是這樣:

217 192.114.71.13

116 124.90.132.65

108 192.114.71.13

102 194.19.140.96

101 217.70.34.173

100 219.235.240.36

以下是其他一些分析日誌的shell用法:

1、檢視當天有多少個ip訪問:

awk '' log_file|sort|uniq|wc -l

2、檢視某乙個頁面被訪問的次數;

grep "/index.php" log_file | wc -l

3、檢視每乙個ip訪問了多少個頁面:

awk ' end ' log_file

4、將每個ip訪問的頁面數進行從小到大排序:

awk ' end ' log_file | sort -n

5、檢視某乙個ip訪問了哪些頁面:

grep ^111.111.111.111 log_file| awk ''

6、去掉搜尋引擎統計當天的頁面:

awk '' log_file | grep ^\"mozilla | awk '' |sort | uniq | wc -l

7、檢視2023年6月21日14時這乙個小時內有多少ip訪問:

awk '' log_file | grep 21/jun/2009:14 | awk ''| sort | uniq | wc -l

Apache按日切分日誌

apache按日切分日誌,使用apache自帶的rotatelogs切分 語法 rotatelogs l logfile rotationtime offset filesizem 選項 l 使用本地時間代替gmt時間作為時間基準。注意 在乙個改變gmt偏移量 比如夏令時 的環境中使用 l會導致不可...

shell 檢查apache是否啟動

首先我們需要檢查apache是否以啟動,這裡我們用到的說nmap命令,linux預設情況下是沒有安裝nmap命令的。那麼我們需要安裝下nmap,安裝的命令很簡單 yum y install nmap mnap st 192.168.1.1這條命令是檢測伺服器啟動了什麼服務,192.168.1.1這個...

linux使用shell指令碼對多機器日誌監控

遇到的難題 日誌分散在三颱伺服器,每次報錯檢視日誌都需要一台一台找,非常麻煩,所以第一反應就是有沒有比較好的日誌系統可以一次性檢視所有的日誌,後來發現都需要搭建,或者安裝,或者配置相關服務,所以想了一些簡單的監控多機日誌的方案。定義設三颱機器為 c1,c2,c3 c1同時為跳板機 嘗試方案一 配置簡...