Linux下命令分析,分割,日誌統計的一些工具

2021-09-19 04:12:36 字數 1208 閱讀 9502

awk 處理行列

cat /etc/passwd | cut -d: -f1

cat /etc/passwd | awk -f: ''

cat /etc/passwd | awk -f: ''

#預設是以空格分隔

cat /etc/passwd | head -5 |awk -f: ''

#獲取磁碟占有率,nr表示當前行號

df | awk '}'

#獲取總行數

df | awk 'end'

#獲取總列數

df | awk 'end'

#第一行匹配192.168.100.1的行輸出

cat file | awk '$1~/192.168.100.1/'

sed 處理行
#顯示行號檢視檔案

nl file

#檢視第5行的資料

cat file | sed -n '5'p

#檢視3-6行資料

cat file | sed -n '3,6'p

#去掉3-6行

cat test | sed '3,6'd

#查詢包含bash的行

cat /etc/passwd | sed -n '/bash/'p

#查詢1-包含sync內容的行

cat /etc/passwd | sed -n '1,/sync/'p

#查詢包含ssh內容的行到最後一行

cat /etc/passwd | sed -n '/sshd/,$'p

uniq 統計
#統計檔案裡面緊挨著的相同行出現的次數,統計**ip訪問次數等

uniq -c file

#上面的優化方案

cat file2 | sort | uniq c

#上面的優化方案,-r反排序統計

cat file2 | sort -r | uniq c

#上面的優化方案,-r反排序統計,-k1根據第一列排序,針對多列情況

cat file2 | sort -k1 -r | uniq c

檔案分割
#將file2按照每5行分割為乙個檔案

split -5 file2 spt

統計apache訪問記錄
cat access.log | awk '' | sort | uniq -c

linux下 Nginx日誌分割

linux下 nginx日誌分割 廢話不多說,直接上 bin bash 間隔1天執行該指令碼 nginx 日誌檔案所在的目錄 logs path usr local nginx logs nginx 日誌檔案生成後的目錄 newlogs path home wwwlogs 獲取昨天的 yyyy mm...

Linux下Tomcat日誌分割

進入 usr local sbin資料夾中 wget tar zxvf cronolog 1.6.2.tar.gz cd cronolog 1.6.2 configure make make install which cronolog 一般情況下顯示為 usr local sbin cronolo...

linux下常用的日誌分析命令

linux下常用的日誌分析命令 形如下面這樣的access.log日誌內容 必須借助命令或指令碼才可以分析 提取出有價值的內容。以下是收集的一些用於日誌分析的命令或指令碼,分享下,有用到的朋友參考下吧。1,檢視apache的程序數 示例 2,分析日誌檢視當天的ip連線數 示例 cat default...