pyspark 程式頭與程式提交集群命令

2021-08-26 14:57:36 字數 652 閱讀 5256

這裡介紹使用sparkcontext的pyspark註冊頭,通過sparkconf對sparkcontext進行配置,sparkconf可以設定各種配置引數,如下面所示:

from pyspark.context import sparkcontext

from pyspark.sql import sqlcontext

from pyspark.context import sparkconf

from pyspark.sql import hivecontext

from pyspark.sql.functions import *

import pandas as pd

其次,對於寫好的pyspark程式,可以使用spark-submit來提交到集群上,命令示例如下:

spark-submit --master yarn --deploy-mode client --num-executors 6 --driver-memory 1g --executor-memory 5g -- executor-cores 2 demo.py

這裡提交的同時配置的引數有使用的節點數,驅動記憶體大小,執行記憶體大小,核數等。

如有任何問題可以**r語言&大資料分析456726635或者python & spark大數636866908與我聯絡。

模擬提交程式相關專題

模擬提交程式相關專題 1 目錄 2 1 目的4 2 登入 2.4 例項6 3 登出 7 3.1 例項7 4 判斷是否登入成功 7 4.1 例項8 5 儲存使用者名稱和密碼 9 5.1 例項9 在此文件中,將介紹模擬提交程式相關的幾個問題 登入主要使用了自動登入和提交post的方法 htmleleme...

ELF檔案 段和程式頭

可執行檔案和共享目標檔案 動態鏈結庫 是程式在磁碟中的靜態儲存形式 要執行乙個程式,系統就要先把相應的可執行檔案和共享目標檔案裝載到程序的位址空間中,這樣就形成乙個可執行程序的記憶體空間布局,稱為 程序映象 乙個已經裝載完成的程序空間中會包含多個不同的 段 segment 比如,段 資料段 堆疊段,...

頭節點鍊錶C程式

main.c檔案 include include headnode.h int main for i 0 i 20 i 錯誤1 空表的情況下插入節點 insert pos head,0,2 正確 空表的情況下在第乙個節點處插入 insert pos head,1,2 錯誤2 空表的情況下在非第乙個節...