spark 程式 windows 執行報錯

2022-05-14 10:06:48 字數 580 閱讀 9835

1  

環境變數導致   新建環境變數 hadoop_home

參考  

2錯誤 執行模式錯誤

解決 參考

從提示中可以看出找不到程式執行的master,此時需要配置環境變數。

傳遞給spark的master url可以有如下幾種:

local 本地單執行緒

local[k] 本地多執行緒(指定k個核心)

local[*] 本地多執行緒(指定所有可用核心)

spark://host:port 連線到指定的 spark standalone cluster master,需要指定埠。

mesos://host:port 連線到指定的 mesos 集群,需要指定埠。

yarn-client客戶端模式 連線到 yarn 集群。需要配置 hadoop_conf_dir。

yarn-cluster集群模式 連線到 yarn 集群。需要配置 hadoop_conf_dir。

點選edit configuration,在左側點選該專案。在右側vm options中輸入「-dspark.master=local」,指示本程式本地單執行緒執行,再次執行即可。

Windows環境下MPI程式的編譯與執行

1 準備工作 2 環境搭建 3 mpi程式編譯及執行 1 準備工作 作業系統分別為 win xp 和 win 2003 server microsoft net framework 2.0 必需 vcredist x86.exe 可能會用得到。筆者在安裝時碰到需要安裝visual c 2005 sp...

windows下安裝spark環境

本機安裝jdk1.8.0,spark2.0.1,scala2.12.1 略見上篇 注意 spark的各個版本需要跟相應的scala版本對應.將spark的bin目錄新增到系統變數path中。cmd命令列中,直接執行spark shell命令,即可開啟spark的互動式命令列模式。執行spark sh...

windows下spark的安裝

首先的在乙個大前提下就是我們本機已經安裝並配置好jdk環境變數了。選擇的環境如下 jdk1.8 scala2.10.2 hadoop2.7.4 spark2.4.4 一 scala安裝安裝後cmd輸入scala,出現如下截圖 說明安裝成功。二 hadoop安裝 hadoop home d soft ...