linux apache 日誌分析與狀態

2021-09-30 09:13:36 字數 1849 閱讀 7892

linux apache 日誌分析與狀態

假設apache日誌格式為:

問題1:在apachelog中找出訪問次數最多的10個ip。

awk '' apache_log |sort |uniq -c|sort -nr|head -n 10

awk 首先將每條日誌中的ip抓出來,如日誌格式被自定義過,可以 -f 定義分隔符和 print指定列;

sort進行初次排序,為的使相同的記錄排列到一起;

upiq -c 合併重複的行,並記錄重複次數。

head進行前十名篩選;

sort -nr按照數字進行倒敘排序。

我參考的命令是:

顯示10條最常用的命令

sed -e "s/| /\n/g" ~/.bash_history | cut -d ' ' -f 1 | sort | uniq -c | sort -nr | head

問題2:在apache日誌中找出訪問次數最多的幾個分鐘。

awk '' access_log |cut -c 14-18|sort|uniq -c|sort -nr|head

awk 用空格分出來的第四列是[09/jan/2010:00:59:59;

cut -c 提取14到18個字元 -- 00:59

剩下的內容和問題1類似。

問題3:在apache日誌中找到訪問最多的頁面:

awk '' apache_log |sed 's/^.*cn\(.*\)\"/\1/g'|sort |uniq -c|sort -rn|head

類似問題1和2,唯一特殊是用sed的替換功能將」替換成括號內的內容:」

問題4:在apache日誌中找出訪問次數最多(負載最重)的幾個時間段(以分鐘為單位),然後在看看這些時間哪幾個ip訪問的最多?

1,檢視apache程序:

ps aux | grep httpd | grep -v grep | wc -l    // ps aux是顯示所有程序和其狀態。

2,檢視80埠的tcp連線:

netstat -tan | grep "established" | grep ":80" | wc -l

3,通過日誌檢視當天ip連線數,過濾重複:

cat access_log | grep "19/may/2011" | awk '' | sort | uniq -c | sort -nr

4,當天ip連線數最高的ip都在幹些什麼(原來是蜘蛛):

cat access_log | grep "19/may/2011:00" | grep "61.135.166.230" | awk '' | sort | uniq -c | sort -nr | head -n 10

5,當天訪問頁面排前10的url:

cat access_log | grep "19/may/2010:00" | awk '' | sort | uniq -c | sort -nr | head -n 10

6,用tcpdump嗅探80埠的訪問看看誰最高

tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -f"." '' | sort | uniq -c | sort -nr

接著從日誌裡檢視該ip在幹嘛:

cat access_log | grep 220.181.38.183| awk '' | sort | uniq -c | sort -nr | less

Linux Apache日誌分析 命令

1.獲得訪問前10位的ip位址 cat access.log awk sort uniq c sort nr head 10 2.訪問次數最多的檔案或頁面,取前10 cat access.log awk sort uniq c sort nr head 10 3.列出傳輸最大的幾個exe檔案 cat...

轉乙個linux apache 日誌分析與狀態

ps.轉的一篇文章 假設apache日誌格式為 問題1 在apachelog中找出訪問次數最多的10個ip。awk apache log sort uniq c sort nr head n 10 awk 首先將每條日誌中的ip抓出來,如日誌格式被自定義過,可以 f 定義分隔符和 print指定列 ...

Linux Apache服務配置

lamp 原始碼包編譯安裝 版本可以自定義 生產環境 安全 穩定 開發環境 lamp 二進位製包安裝 yum配置檔案位置 網頁檔案預設儲存位置 usr local apache2 htdocs 日誌儲存位置 usr local apache2 logs 日誌處理 切割輪替 vim etc logro...