spark快速大資料分析之學習記錄(四)

2021-09-24 13:12:33 字數 1016 閱讀 1335

題外話:這是乙個「**」,主要用於記錄並監督我每週的spark學習程序

一、初始化sparkcontext【基於python】

1.新建乙個py檔案,用於存放python指令碼(備註:我在桌面建了乙個資料夾py,主要用來存放python指令碼)

shell命令:

sudo vim "test.py"
然後在test.py文字中輸入以下程式:

from pyspark import sparkconf,sparkcontext

sc=sparkcontext(conf=conf)

儲存檔案並退出,然後啟動該程式。

shell命令:

cd /usr/lib/spark/spark-2.4.3-bin-hadoop2.7/    #進入spark目錄

./bin/spark-submit /home/hadoop/桌面/py/test.py #執行

執行截圖:

二、執行examples中自帶的wordcount.py

spark目錄下有個examples資料夾,裡面附帶python編寫的各類示例,如下圖所示:

同樣,通過shell命令來執行wordcount.py

shell命令:

./bin/spark-submit ./examples/src/main/python/wordcount.py readme.md
執行截圖:

spark快速大資料分析之學習記錄(五)

題外話 這是乙個 主要用於記錄並監督我每週的spark學習程序 上週畢業典禮,放肆high 1 rdd基礎 rdd risilient distributed dataset 彈性分布式資料集,簡單理解成不可變的分布式的元素集合 2.建立rdd python 建立rdd有兩種 外部讀取檔案和自定義傳...

Spark快速大資料分析 RDD程式設計

rdd resilient distributed dataset 彈性分布式資料集 rdd就是乙個不可變的分布式物件集合。每個rdd都被分為多個分割槽,這些分割槽執行在集群中的不同節點。使用者可以通過2中方法建立rdd 1 讀取乙個外部資料集 sc.textfile test.txt 2 在驅動器...

Spark 大資料分析 介紹

spark的基本原理 executor worker task jobstage dagscheduler taskscheduler rdd一些疑問 一些結論 spark是乙個以複雜計算為核心的大資料分析框架,是mapreduce的 後繼者 具備高效性 通用性等特點。spark最初在2009年由加...