spark shell啟動集群

2022-02-19 11:29:32 字數 1120 閱讀 4179

使用spark-shell  啟動spark集群時的流程簡析:

詳細的spark command

其中進行了執行環境所需的引數的配置,利用這些引數生成了command,同時開啟程序 process

執行命令,對於process的輸入輸出進行了重定向。通過配置spark_print_launch_command環境變數可以檢視生成的command。

sparksubmitarguments用於解析和封裝從spark-submit指令碼獲得引數

其中:getpropertiesfromfile(file: file)用於屬性的配置檔案

parseopts 解析引數

mergesparkproperties 根據讀取的properties對未賦值的進行賦值

checkrequiredarguments 確保必要的字段存在

在org.apache.spark.repl.main中的main方法呼叫process生成乙個新的 new scala compiler,在這個過程中會呼叫sprkiloopinit.scala中的initializespark方法用於最終生成sc,從而在repl中使用。

使用spark shell操作Carbondata

如果要對hdfs的檔案進行增刪改,最好加入環境變數 hadoop user name hdfs可以啟動spark shell了 bin spark shell import org.apache spark sql sparksession import org.apache spark sql c...

Spark shell裡的語句探索

不多說,直接上乾貨!wget scala val infile sc.textfile spam.data 這行 的意思是,將spam.data檔案中的每行作為乙個rdd中的單獨元素載入到spark中,並返回乙個名為infile的rdd。scala import spark.sparkfiles s...

集群方式啟動 websphere

wasadmin chq web soft websphere deploymentmanager bin startmanager.sh admu0116i 在檔案 soft websphere deploymentmanager logs dmgr startserver.log 中記錄工具資訊...