Spark環境搭建之Spark On Yarn

2021-10-25 19:20:01 字數 3247 閱讀 4086

注意:

關閉之前的spark-standalone集群

/export/server/spark/sbin/stop-all.sh

配置yarn歷史伺服器並關閉資源檢查

vim /export/servers/hadoop/etc/hadoop/yarn-site.xml

<

!-- 配置yarn主節點的位置 -->

yarn.resourcemanager.hostname

node01

yarn.nodemanager.aux-services

mapreduce_shuffle

<

!-- 設定yarn集群的記憶體分配方案 -->

yarn.nodemanager.resource.memory-mb

20480

yarn.scheduler.minimum-allocation-mb

2048

yarn.nodemanager.vmem-pmem-ratio

2.1<

!-- 開啟日誌聚合功能 -->

yarn.log-aggregation-enable

true

<

!-- 設定聚合日誌在hdfs上的儲存時間 -->

yarn.log-aggregation.retain-seconds

604800

<

!-- 設定yarn歷史伺服器位址 -->

!-- 關閉yarn記憶體檢查 -->

yarn.nodemanager.pmem-check-enabled

false

yarn.nodemanager.vmem-check-enabled

false

注:如果之前沒有配置,現在配置了需要分發並重啟yarn

cd /export/servers/hadoop/etc/hadoop

scp -r yarn-site.xml root@node02:$pwd

scp -r yarn-site.xml root@node03:$pwd

關閉yarn:

/export/server/hadoop/sbin/stop-yarn.sh

開啟yarn:

/export/server/hadoop/sbin/start-yarn.sh

配置spark的歷史伺服器和yarn的整合

進入配置目錄

cd /export/servers/spark/conf

修改配置檔案名稱

mv spark-defaults.conf.template spark-defaults.conf

vim spark-defaults.conf

新增內容:

spark.eventlog.enabled true

spark.eventlog.dir hdfs://node01:8020/sparklog/

spark.eventlog.compress true

spark.yarn.historyserver.address node01:18080

修改配置檔案

vim /export/servers/spark/conf/spark-env.sh

增加如下內容:

## 配置spark歷史日誌儲存位址

spark_history_opts=

"-dspark.history.fs.logdirectory=hdfs://node01:8020/sparklog/ -dspark.history.fs.cleaner.enabled=true"

注意:sparklog需要手動建立

hadoop fs -mkdir -p /sparklog

進入目錄

cd /export/servers/spark/conf

修改日誌屬性配置檔案名稱

mv log4j.properties.template log4j.properties

改變日誌級別

vim log4j.properties

修改內容如下:

配置依賴的spark 的jar包

vim /export/servers/spark/conf/spark-defaults.conf

新增內容:

spark.yarn.jars hdfs://node01:8020/spark/jars/*

分發同步-可選

cd /export/servers/spark/conf

scp -r spark-defaults.conf root@node02:$pwd

scp -r spark-defaults.conf root@node03:$pwd

啟動服務

-啟動mrhistoryserver服務,在node01執行命令

mr-jobhistory-daemon.sh start historyserver

Spark開發環境搭建

二 將這個包解壓到 usr spark 目錄下 三 進入目錄 usr spark spark 2.1.0 bin 選擇需要啟動的指令碼,例如python的shell pyspark 啟動成功後如下圖所示 export spark home usr spark spark 2.1.0 path pa ...

spark部署,環境搭建

spark 部署,環境搭建 部署spark 一 安裝 hadoop 1.改名 33 master 32 node1 34 node2 2.配置三者互相 ssh無密碼登陸 3.設定環境變數。配置配置檔案 logstash與kafka pgsql安裝 安裝psycopg wget tarxfpsycop...

Spark的local模式環境搭建

簡介 部署模式 執行模式 spark可以在那些情況下執行,spark 框架編寫的應用程式可以執行在本地模式 local mode 集群模式 cluster mode 和雲服務 cloud 方便開發測試和生產部署。spark本地模式的安裝 1.上傳安裝包解壓安裝包 解壓軟體包 tar zxvf spa...