spark監控配置

2021-09-24 20:45:18 字數 868 閱讀 5055

通過rest api進行監控

預設情況下,每個sparkcontext都會在埠4040上啟動web ui,以顯示有關應用程式的有用資訊。這包括:

只需http://:4040在web瀏覽器中開啟即可訪問此介面。如果多個sparkcontexts在同一主機上執行,​​它們將繫結到以4040(4041,4042等)開頭的連續埠。

請注意,此資訊僅在應用程式的預設時間內可用。要在事後檢視web ui,請spark.eventlog.enabled在啟動應用程式之前設定為true。這會將spark配置為記錄spark事件,該事件將ui中顯示的資訊編碼為持久儲存。

#開啟事件日誌記錄

spark.eventlog.enabled true

#設定事件日誌的儲存位置,可以是hdfs或本地檔案系統

#注意這個路徑必須提前在檔案系統中存在,不然spark 應用程式會直接報錯

spark.eventlog.dir hdfs://namenode:8020/spark/history

#讀取事件日誌的路徑,應與spark.eventlog.dir的路徑保持一直

spark_history_opts="-dspark.history.fs.logdirectory=hdfs://namenode:8020/spark/history"

sbin/start-history-server.sh
啟動成功後訪問 即可進入history-server的ui介面 ,通過ui介面檢視作業的執行資訊

sbin/stop-history-server.sh

Spark入門 常用Spark監控Tab

最近用spark做任務,中間來回配置集群環境,檢視配置後的效果,以及監測程式執行過程中的執行進度等,需要頻繁檢視webui的幾個tab。各個tab功能不一,從不同方面顯示了spark的各方面效能引數和執行進度。特意記錄一下,方便以後用得到的時候能夠快速回顧知識點。第乙個tab是在配置好hadoop之...

Spark的監控系統

常用的spark監控系統有,web ui和spark的history server 一,web介面 1,介面的基本介紹 每乙個spark應用程式都會啟動乙個spark ui,預設埠是4040埠,用於展示對應用程式有用的資訊。包括以下資訊 1 stages和tasks列表。2 rdd大小的總概和記憶體...

使用Prometheus監控Spark任務

目前spark支援graphite打點,但是graphite缺省會為每個打點生成對應的檔案,直接只有兩個點資料,graphite生成的檔案也有200多k,對graphite造成很大的壓力。所以考慮使用prometheus來代替graphite。prometheus的打點預設是pull模式,和grap...