使用Spark開發應用程式,並將作業提交到伺服器

2022-09-08 04:48:14 字數 1526 閱讀 5751

由於一些原因在windows上配置未成功(應該是可以配置成功的)、我是在linux上直接使用pycharm,在linux的好處是,環境可能導致的一切問題不復存在

111   新建乙個普通python工程

程式設計環境使用spark使用的python環境

222   配置spark環境

進入下圖

新增2個相應屬性

python_path為spark安裝目錄下的python的路徑

spark_homr為spark安裝目錄

完成後匯入兩個包進入setting

包位置為spark安裝目錄下python目錄下lib裡

建立乙個python檔案

from pyspark import sparkconf, sparkcontext

# 建立sparkconf:設定的是spark的相關資訊

# 建立sparkcontext

sc = sparkcontext(conf=conf)

# 業務邏輯

data = [1, 2, 3, 4, 5]

# 轉成rdd

distdata = sc.parallelize(data)

print(distdata.collect())

# 好的習慣

sc.stop()

在linux系統使用者家根目錄建立乙個script

將**放入spark0301.py中

然後進入spark安裝目錄下bin目錄執行

./spark-submit --master local[2] --name spark0301 /home/hadoop/script/spark0301.py 

因為速度太快結束**是看不到的

使用Moblin SDK開發應用程式

從這篇開始,我會逐步介紹moblin2 sdk中引入的api與中介軟體,希望能對大家有所幫助。在詳細介紹之前,先講講geoclue的來龍去脈。大家知道,原先在應用程式中要獲取裝置的當前位置,最常見的做法是通過gps定位,程式設計師往往需要直接訪問串列埠讀取gps裝置發來的nmea幀,然後通過分析獲得...

spark應用程式的提交

spark 應用提交流程 spark master spark master core src main scala org apache spark deploy sparksubmit.scala override def main args array string unit override...

spark應用程式的執行架構

spark應用程式的執行架構 幾個基本概念 1 job 包含多個task組成的平行計算,往往由action催生。2 stage job的排程單位。3 task 被送到某個executor上的工作單元。4 taskset 一組關聯的,相互之間沒有shuffle依賴關係的任務組成的任務集。乙個應用程式由...