nginx 日誌分析及效能排查

2021-08-04 11:32:27 字數 2308 閱讀 2160

"';修改之後重啟nginx,檢視nginx log的時候,就能看到nginx處理請求所花的時間了,這個時間基本就是後端所花的時間,所以可以根據這個欄位來得到響應慢的請求

其實用來用去也就是那麼幾個命令:

cat:輸入檔案內容

grep:過濾文字

'sort':排序

'uniq':去重

'awk':文字處理

命令組合使用,單個命令可以使用多次,來達到多重過濾的效果,前面乙個命令的輸出就是後乙個命令的輸入,流式處理,只要學會這個命令,有多看似複雜的東西,都變得異常簡單。

上面介紹的都是命令,下面再介紹乙個直接輸出html的,其實就是利用go-access來分析nginx日誌

go-access是以docker容器的形式執行的,只要你安裝了docker,就能直接執行,免安裝很方便

以上指令碼,配合日誌每天的日誌分割,然後在crontab裡面配置一下自動執行指令碼,可生成每一天的nginx報表,**情況一幕了然,當然這裡也有缺點,因為不實時

想要統計實時資料,可以使用ngxtop 來檢視,安裝起來也很簡單

$ pip install ngxtop
執行的話,先進到nginx目錄,然後再執行,-c 指定配置檔案,-t 重新整理頻率,單位為秒

$ cd /usr/local/nginx

$ ngxtop -c conf/nginx.conf -t 1

但是這種實時的方式,還需要ssh遠端登入,不太方便,還可以使用lua來進行實時統計,然後寫乙個介面把資料展示出來,通過lua-nginx-module,nginx/tengine 都可以用,如果直接安裝openresty的話,就方便了,內嵌了lua,不需要重新編譯nginx了,openresty的入門可以看我寫的一些文章

以上~~~

Nginx 日誌分析及效能排查

來自 最近一直在做效能排查,思路就是根據分析nginx日誌,得到響應耗時的url 以及請求時間,再得到這段時間的請求量,併發量,分析是併發的原因,還是本身就比較慢,如果是應用本身的原因,只需要找到對應的 然後進行優化就好了 我找到的幾個原因,基本就是後端sql執行的比較多,單次訪問看不出來,但是人比...

Nginx 日誌分析及效能排查

最近一直在做效能排查,思路就是根據分析nginx日誌,得到響應耗時的url 以及請求時間,再得到這段時間的請求量,併發量,分析是併發的原因,還是本身就比較慢,如果是應用本身的原因,只需要找到對應的 然後進行優化就好了 我找到的幾個原因,基本就是後端sql執行的比較多,單次訪問看不出來,但是人比較多的...

分析 Nginx 日誌

日誌格式 統計訪問 ip 次數 awk end access.log 統計訪問訪問大於 100 次的 ip awk end access.log 統計訪問 ip 次數並排序取前 10 awk end access.log 統計時間段訪問最多的 ip awk 4 02 jan 2017 00 02 0...