Spark的日誌配置

2021-07-11 01:18:00 字數 1001 閱讀 3604

在測試spark計算時,將作業提交到yarn(模式–master yarn-cluster)上,想檢視print到控制台這是imposible的,因為作業是提交到yarn的集群上,so 去yarn集群上看日誌是很麻煩的,但有特別想看下print的資訊,方便除錯或者別的目的

在spark的conf目錄下,把log4j.properties.template修改為log4j.properties,原來的內容如下:

#set everything to be logged to the console

log4j.rootcategory=info, console

#settings to quiet third party logs that are too verbose

log4j.logger.org.spark-project.jetty=warn

log4j.logger.org.spark-project.jetty.util.component.abstractlifecycle=error

log4j.logger.org.apache.spark.repl.sparkimain$exprtyper=info

log4j.logger.org.apache.spark.repl.sparkiloop$sparkiloopinterpreter=info

把log4j.rootcategory=info, console改為log4j.rootcategory=warn, console即可抑制spark把info級別的日誌打到控制台上。如果要顯示全面的資訊,則把info改為debug。

如果希望一方面把**中的println列印到控制台,另一方面又保留spark 本身輸出的日誌,可以將它輸出到日誌檔案中

上面的操作,spark的日誌一方面列印到控制台,一方面寫入到/home/hadoop/spark.log中了,這是日誌的繼承特性,後面再來改進,目前把log4j.rootcategory=info, console,file改為log4j.rootcategory=info, file即可

spark 檢視yarn日誌 spark提交任務

standalone模式兩種提交任務方式 standalone client提交任務方式 提交命令 spark submit master spark node1 7077 class org.apache.spark.examples.sparkpi lib spark examples 1.6....

Spark日誌級別修改

在學習使用spark的過程中,總是想對內部執行過程作深入的了解,其中debug和trace級別的日誌可以為我們提供詳細和有用的資訊,那麼如何進行合理設定呢,不複雜但也絕不是將乙個info換為trace那麼簡單。調整spark日誌級別的配置檔案是 spark home conf log4j.prope...

spark 的相關配置

export hadoop home home hadoop hadoop 2.0.0 cdh4.5.0 export hadoop conf dir hadoop home etc hadoop spark executor instances 2 spark executor cores 1 s...