SparkStreaming 過濾日誌

2021-10-02 04:23:34 字數 617 閱讀 8320

由於sparkstreaming日誌太多不便於查詢關鍵的日誌,而且在spark1.6版本,日誌預設是列印在根目錄所在磁碟,實時任務日誌會隨著時間越來越大,可能會給服務造成影響,此時需要過濾掉某些類的日誌。

// 遮蔽不必要的日誌 ,在終端上顯示需要的日誌

import org.apache.log4j.

logger.

getlogger

("org.apache.spark").

setlevel

(level.off)

logger.

getlogger

("org.eclipse.jetty.server").

setlevel

(level.off)

logger.

getlogger

("org.apache.kafka.clients.consumer").

setlevel

(level.off)

遮蔽 sparkcontext 的日誌

sparkcontext.

setloglevel

("warn"

)

Spark Streaming入門詳解

背景 使用spark主要是使用spark streaming,spark streaming的魔力之所在於 1.流式處理,如今是乙個流處理時代,一切與流不相關的都是無效的資料。3.spark streaming本身是乙個程式,spark streaming在處理資料的時候會不斷感知資料。所以對構建複...

Spark Streaming 程式監控

官網中指出,spark中專門為sparkstreaming程式的監控設定了額外的途徑,當使用streamingcontext時,在web ui中會出現乙個 streaming 的選項卡,在此選項卡內,統計的內容展示如下 這其中包括接受的記錄數量,每乙個batch內處理的記錄數,處理時間,以及總共消耗...

spark streaming讀取kafka示例

spark streaming讀取kafka示例,其中 spark streaming優雅的關閉策略優化部分參考 如何管理spark streaming消費kafka的偏移量部分參考 spark向kafka中寫入資料部分參考 object demo 建立streamingcontext return...