離線環境下在anaconda中的pyspark配置

2021-08-19 06:40:23 字數 471 閱讀 8447

已有環境:win7,anaconda(我是安裝了python3),spark-2.0.2-bin-hadoop2.7已安裝,環境變數均已配置

離線環境下好像不方便直接pip install,乙個方法是在路徑下直接加上python的包:

找到anaconda的安裝路徑:c:\users\admin\anaconda3,找到spark的安裝路徑:d:\software\spark-2.0.2-bin-hadoop2.7(視自己具體安裝情況)

將d:\software\spark-2.0.2-bin-hadoop2.7\python 中的pyspark整個資料夾和py4j解壓縮後的資料夾拷貝放進c:\users\admin\anaconda3\lib\site-packages,然後編譯器import pyspark.ml 無錯誤提示!可以執行pyspark的包啦~

--------------------------分割線---------------------

windows環境下在qt中配置opencv環境

在網上看到很多利用cmake編譯進行安裝配置opencv環境的,我也去試一下,弄了比較長的時間,最後cmake沒有編譯成功,那既然自己沒有編譯成功,那就用別人編譯好的吧,下面進入正題。opencv mingw build 環境變數生效 開啟cmd 輸入set path c 然後關閉這個cdm視窗。然...

spring中不同環境下在xml檔案中的set注入

就是針對於不同型別的變數,在spring的xml配置檔案中的注入方式。public class user public string getname public void setname string name public hellospring gethellospring public vo...

anaconda 環境搭建

spring cloud 實戰 乾貨 mybatis 實戰 乾貨 spring boot 實戰 乾貨 react 入門實戰 乾貨 構建中小型網際網路企業架構 乾貨 python 學習持續更新 elasticsearch 筆記 kafka storm 實戰 乾貨 scala 學習持續更新 rpc通過a...