分析日誌不用愁,shell命令來解決

2021-10-23 20:46:25 字數 2303 閱讀 7639

​ 以nginx 為例

awk '' access.log | sort | uniq | wc -l
awk ''文字處理,輸出第一段(ip位址)

access.log 處理的日誌

sort對上一段輸出結果排序

uniq去重

wc -l對行數統計

grep 'index.html' access.log | wc -l
grep 'index.html'所要檢索的頁面

wc -l統計數

3、檢視每乙個ip訪問了多少個頁面

awk ' end ' access.log > log.txt
++s[$1] end 陣列,將第一段進行統計,字典的方式統計 key=value 例如: 某乙個有幾個 127.0.0.1 10

遍歷整個陣列,a 將遍歷 s 整個陣列的 key

print a,s[a] 輸出變數中的內容,a key ip位址, s[a] 字典變數,引用a 輸出對應的value

檢視

sort -n -t ' ' -k 2 log.txt
-n 進行排序

-t 指定間隔符

-k 2 針對第二列進行排序

awk ' end ' access.log | sort -n
grep '106.12.223.228' access.log | awk '' | more
awk '' access.log | grep ^\'mozilla | awk '' | sort | uniq | wc -l
awk '' access.log | grep 16/aug/2020:14 | awk '' | wc -l
awk '' access.log | sort | uniq -c | sort -nr | head -10
uniq -c 去重後,顯示該字段的重複值為多少

sort -nr 將其進行排序,預設是從小到大,r 拍反序

awk '' access.log  | sort | uniq -c | sort -nr | head -10
訪問量最大的前20個ip
awk '' access.log | sort -nr | uniq -c | sort -nr |  head -20
第一次排序是根據 ip位址進行的排序,uniq -c 去重統計之後,還需重新排序

cat access.log | awk '' | sed -e ' s/http:\/\///' -e ' s/\/.*//' | sort | uniq -c | sort -nr | head -20
cat access.log | awk '($7~/\.*/)' | sort -nr | head -100
cat access.log | awk '($10 > 200000 && $7~/\.*/)' | sort -n | uniq -c | sort -nr | head -100
ps -ef | awk -f ' ' '' | sort | uniq -c | sort -nr | head -20
netstat -an | grep established | wc -l
ps -ef|grep nginx |wc -l
grep 檢索服務name

netstat -n | awk '/^tcp/  end printf("%-20s %s\n","total_ip",i);for(a in s) printf("%-20s %s\n",a, s[a]);printf("%-20s %s\n","total_link",n);}'

技術專欄 室內定位不用愁,UWB來拯救!

無人機技術當中,定位是不可或缺的一環,在室外,常常採用gps作為定位技術,但在室內環境中,gps卻無法提供較為精準的定位資料,在室內定位技術方案中,有基於雷射雷達的slam定位建圖技術,基於視覺的slam定位建圖技術,有光流模組結合超聲波感測器的定位技術方案,有動作捕捉系統定位技術方案,這些定位技術...

技術專欄 室內定位不用愁,UWB來拯救!

無人機技術當中,定位是不可或缺的一環,在室外,常常採用gps作為定位技術,但在室內環境中,gps卻無法提供較為精準的定位資料,在室內定位技術方案中,有基於雷射雷達的slam定位建圖技術,基於視覺的slam定位建圖技術,有光流模組結合超聲波感測器的定位技術方案,有動作捕捉系統定位技術方案,這些定位技術...

Apache日誌分析常用Shell命令

1 檢視apache程序 psaux grep httpd grep vgrep wc l2 檢視80埠的tcp連線 netstat tan grep established grep 80 wc l 3 通過日誌檢視當天ip連線數,過濾重複 cataccess log grep 20 oct 20...