spark提交任務,引數的形式是JSON

2021-08-09 06:06:32 字數 508 閱讀 8130

spark提交任務,引數的形式是json

比如:spark2-submit --class com.iflytek.test.jcseg_hivedemo  spark_hive.jar   

第乙個引數:

第二個引數:

結果後台實際接收的引數是這樣的:

tablename:dhzp

fields:[text1

text2]

tablename:dhzp111

fields:[text1_jcseg

text2_jcseg]

沒有把我的引數json引數當作乙個整體,而是當作逗號或者空格分割了。這個問題該怎麼解決呢?一般來說分倆步:

1.有雙引號將整體包裹起來

2.包裹的雙引號裡面的內容需要加\轉義

如下:spark2-submit --class com.iflytek.test.jcseg_hivedemo  spark_hive.jar  "" ""

後台接收的引數如下:

spark任務提交引數說明

bin sh bin dir cd dirname 0 pwd bin dir cd dirname bash source pwd log dir logs log time date y m d main函式傳入引數 inputfile hdfs outputfile hdfs spark su...

Spark任務提交流程

spark任務提交流程挺複雜的,下面給乙個相對簡單的任務提交流程 driver程序啟動以後,首先構建sparkcontext,sparkcontext主要包含兩部分 dagscheduler和taskscheduler master接受到任務註冊資訊之後,根據自身資源呼叫演算法在spark集群的wo...

Spark任務提交流程

建立sparkcontext物件,其中包含dagscheduler和taskscheduler executor內部會建立執行task的執行緒池,然後把啟動的executor反向註冊給driver dagscheduler負責把spark作業轉化成stage的dag,根據寬窄依賴切分stage,然後...