一文看懂 K8s 日誌系統設計和實踐

2021-09-30 01:52:31 字數 2588 閱讀 3129

》中我們介紹了為什麼需要乙個日誌系統、為什麼雲原生下的日誌系統如此重要以及雲原生背景下日誌系統的建設難點,相信 devops、sre、運維等同學看了之後深有體會。本篇文章單刀直入,會直接跟大家分享一下如何在雲原生的場景下搭建乙個靈活、功能強大、可靠、可擴容的日誌系統。

技術架構,是將產品需求轉變為技術實現的過程。對於所有的架構師而言,能夠將產品需求分析透徹是非常基本也是非常重要的一點。很多系統剛建成沒多久就要被推翻,最根本的原因還是沒有解決好產品真正的需求。

我所在的日誌服務團隊在日誌這塊有近10年的經驗,幾乎服務阿里內部所有的團隊,涉及電商、支付、物流、雲計算、遊戲、即時通訊、iot等領域,多年來的產品功能的優化和迭代都是基於各個團隊的日誌需求變化。

支援各種日誌格式、資料來源的採集,包括非k8s

能夠快速的查詢/定位問題日誌

能夠將各種格式的半結構化/非結構化日誌格式化,並支援快速的統計分析、視覺化

支援通過日誌進行實時計算並獲得一些業務指標,並支援基於業務指標實時的告警(其實本質就是apm)

支援對於超大規模的日誌進行各種維度的關聯分析,可接受一定時間的延遲

能夠便捷的對接各種外部系統或支援自定義的獲取資料,例如對接第三方審計系統

能夠基於日誌以及相關的時序資訊,實現智慧型的告警、**、根因分析等,並能夠支援自定義的離線訓練方式以獲得更好的效果

為滿足上述這些功能需求,日誌平台上必須具備的功能功能模組有:

全方位日誌採集,支援daemonset、sidecar各種採集方式以應對不同的採集需求,同時支援web、移動端、iot、物理機/虛擬機器各種資料來源的採集;

日誌實時通道,這個是為了對接上下游所必備的功能,保證日誌能夠被多種系統所便捷的使用;

資料清洗(etl: extract,transform,load),對各種格式的日誌進行清洗,支援過濾、富化、轉換、補漏、**、聚合等;

實時分析,搜尋只能完成一些定位到問題,而分析統計功能可以幫助快速分析問題的根因,同時可以用於快速的計算一些業務指標;

流計算,通常我們都會使用流計算框架(flink、storm、spark stream等)來計算一些實時的指標或對資料進行一些自定義的清洗等;

離線分析,運營、安全相關的需求都需要對大量的歷史日誌進行各種維度的關聯計算,目前只有t+1的離線分析引擎能夠完成;

機器學習框架,能夠便捷、快速的將歷史的日誌對接到機器學習框架進行離線訓練,並將訓練後的結果載入到線上實時的演算法庫中。

借助於強大的開源社群,我們可以很容易基於開源軟體的組合來實現這樣一套日誌平台,上圖是乙個非常典型的以elk為核心的日誌平台方案:

採用開源軟體的組合是非常高效的方案,得益於強大的開源社群以及龐大使用者群體的經驗積累,我們可以很快搭建出這樣一套系統,並且可以滿足我們絕大部分的需求。

當我們把這套系統部署好,能夠把日誌從容器上採集上來、elasticsearch上能夠查到、hadoop上能夠成功執行sql、grafana上能看到圖、告警簡訊能收到......完成上述流程打通後,加加班可能只需要花費幾天的時間,當系統終於跑通的時候,這時候終於可以長舒一口氣,躺在辦公椅上放鬆放鬆。

上述這些是一家中等規模的網際網路企業在日誌平台建設中經常會遇到的問題,在阿里這些問題會放大非常多倍:

針對上述的一些問題,我們經過多年的時間,開發並打磨出這樣一套k8s日誌方案:

使用我們自研的日誌採集agent logtail實現k8s全方位的資料採集,目前logtail在集團內有數百萬的全量部署,效能、穩定性經過多次雙十一金融級考驗。

化繁為簡,資料佇列、清洗加工、實時檢索、實時分析、ai演算法等原生整合,而不是基於各種開源軟體搭積木的形式實,大大降低了資料鏈路長度,鏈路長度的降低也意味著出錯可能性的減少。

佇列、清洗加工、檢索、分析、ai引擎等全部針對日誌場景深度定製優化,滿足大吞吐、動態擴容、億級日誌秒級可查、低成本、高可用性等需求。

對於流式計算、離線分析場景這種通用需求,無論是開源還是阿里內部都有非常成熟的產品,我們通過無縫對接的方式來支援,目前日誌服務支援了數十種下游的開源、雲上產品的對接。

這套系統目前支撐了整個阿里集團、螞蟻集團、雲上上萬家企業的日誌分析,每天寫入的資料量16pb+,開發、運維這樣一套系統問題和挑戰非常多,這裡就不再展開,有興趣的同學可以參考我們團隊的技術分享:阿里10pb/天日誌系統設計和實現。

本篇主要從架構層面去介紹如何搭建一套k8s的日誌分析平台,包括開源方案以及我們阿里自研的一套方案。然而實際這套系統落地到生產環境並有效執行還有很多任務作要做:

k8s上以什麼樣的姿勢來打日誌?

k8s上的日誌採集方案選擇,daemonset or sidecar?

日誌方案如何與cicd去整合?

微服務下各個應用的日誌儲存如何劃分?

如何基於k8s系統的日誌去做k8s監控?

如何去監控日誌平台的可靠性?

如何去對多個微服務/元件去做自動的巡檢?

如何自動的監控多個站點並實現流量異常時的快速定位?

ITOO系統 K8s部署(一)

在每個節點安裝依賴工具 ubuntu 16.04 執行以下指令碼 文件中指令碼預設均以root使用者執行 apt get update apt get upgrade y apt get dist upgrade y 安裝python2 apt get install python2.7 ubunt...

基於k8s集群 搭建efk日誌系統

1.官方位址 2.搭建es集群 kubectl get po n kube system grep elasticsearch 等待pod狀態到running kubectl describe po elasticsearch logging 0 n kube system grep ip curl...

日誌採集 直擊痛點,詳解 K8s 日誌採集最佳實踐

作者 元乙 阿里雲儲存服務技術專家 第一篇 6 個 k8s 日誌系統建設中的典型問題,你遇到過幾個?第二篇 一文看懂 k8s 日誌系統設計和實踐 第三篇 9 個技巧,解決 k8s 中的日誌輸出問題 在 kubernetes 中,日誌採集相比傳統虛擬機器 物理機方式要複雜很多,最根本的原因是 kube...