spark報錯無權訪問hbase

2021-10-08 08:25:16 字數 644 閱讀 2713

我在提交乙個乙個spark任務是,遇到乙個無權訪問hbase的異常,如下:

org.apache.hadoop.hbase.ipc.remotewithextra***ception(org.apache.hadoop.hbase.security.accessdeniedexception): org.apache.hadoop.hbase.security.accessdeniedexception: insufficient permissions ([email protected], scope=hbase:meta, params=[table=hbase:meta],action=exec)
解決:

設定spark.security.credentials.hbase.enabled=false就可以解決。

這個可以在spark服務配置中設定,也可以在spark-submit--conf中設定。

如果使用cloudera manager管理服務,找到spark服務的spark-conf/spark-defaults.conf 的 spark 客戶端高階配置**段(安全閥)進行設定即可。

參考:

spark 程式 windows 執行報錯

1 環境變數導致 新建環境變數 hadoop home 參考 2錯誤 執行模式錯誤 解決 參考 從提示中可以看出找不到程式執行的master,此時需要配置環境變數。傳遞給spark的master url可以有如下幾種 local 本地單執行緒 local k 本地多執行緒 指定k個核心 local ...

linux新增使用者到附屬組無權訪問

目標 首先在root 超級使用者許可權下建立admin 和test倆個賬號,然後用test使用者訪問admin使用者的檔案。linux建立新使用者admin useradd admin passwd admin 為admin使用者配置密碼 root管理員模式下必須指定給那個使用者建立密碼 同理在建立...

在使用ADI時報無權訪問該功能錯誤

description 在使用adi分配好對應帳套後,使用adi只能訪問總賬日記賬匯入,在使用 固定資產 增加 時,報您無權訪問該功能錯誤。cause web adi 使用整合器對應的功能選單來判斷是否有許可權訪問指定功能的。solution 在使用adi對應的職責找到對應的選單,如 webadi ...