大資料測試環境常用操作語句

2021-10-04 14:58:25 字數 2102 閱讀 9857

1.hdfs相關:hdfs dfs -mkdir +hdfs路徑

舉例:hdfs dfs -mkdir /opt/data/dspanalysis

hdfs dfs -rm -r /opt/data/dspanalysis

因有部分任務需要_success,下游程式才會繼續跑

hadoop fs -touchz

/opt/hive/warehouse/dw_stg.db/log_tbl_103/log_time=201907290/_success

2.oozie常用命令

殺死任務

oozie job -oozie http://...:11000/oozie/ -kill workflow任務號

重啟任務

oozie job -oozie http://...:11000/oozie/ -rerun coordinator任務號 -action 子任務編號

啟動任務

解除任務suspend狀態

3.hivesql常用語句

插數語句

有乙個分割槽:insert into table 表名 partition(dt=20200315) values(『』,』』,』』,』』),(『』,』』,』』,』』),(『』,』』,』』,』』);

有多個分割槽:insert into table 表名 partition(dt=20200315,type=』』) values(『』,』』,』』,』』),(『』,』』,』』,』』),(『』,』』,』』,』』);

查詢語句(因為hive每次查詢不過濾分割槽會全表scan,所以需要帶分割槽做查詢,節約查詢效率)

select 字段 from 表名 where dt=』』/logtime=』』;

更改分割槽:

alter table dw_mdl.m_gwim_follows_info partition dt=20190623 rename to partition dt=20190721;

刪除分割槽:

alter table dw_stg.card_auto_use_status drop partition(dt=20190910);

修復分割槽

msck repair table dw_stg.card_auto_use_status;

4.docker常用命令

新的logstash啟動命令:

docker run -itd -p 9613:9600 -v /opt/docker/gwim_hyq_like/conf.d:/etc/logstash/conf.d -v /etc/hosts:/etc/hosts --restart=always --name=gwim_hyq_like 44a63fae1877

查日誌命令:

docker logs -f gwim_hyq_like

停止的容器啟動命令

docker start gwim_hyq_like

重啟命令:

docker restart gwim_hyq_like

停止命令:

docker stop gwim_hyq_like

檢視目前在跑的程序:

docker ps

檢視目前所有的程序(包含已休眠的任務)

docker ps -a

5.kafka常用命令

kafka消費資料:

./kafka-console-consumer.sh --bootstrap-server kafka伺服器名:埠號 --topic bd_ht_open --from-beginning

kafka造資料:

./kafka-console-producer.sh --broker-list kafka伺服器名:埠號 --topic

大資料測試環境搭建

hadoop集群搭建 整理的很好 具體到我用的版本 2.4.1 遇到的一些問題 1.jdk版本問題 2.環境變數配置問題 3.hadoop配置 core site.xml,hdfs site.xml等 4.資料夾許可權問題,非root使用者必須具有hadoop相關資料夾及其子資料夾的寫許可權 5.d...

大資料測試方法

一.功能性測試 大資料功能主要涉及系統實現面向大資料分析應用的posix api,包括檔案讀取與訪問控制,元資料操作,鎖操作等功能 大資料分析系統的posix語義不同,實現的檔案系統api也不同,功能測試要覆蓋到大資料系統涉及實現的api和功能點 功能測試工作量大,應該重點考慮應用自動化測試方法進行...

大資料測試小結

1.etl測試 etl,extract transform load 的縮寫,將資料從 端經過抽取 extract 轉換 transform 載入 load 至目的端的過程.etl工具較多,用過的是informatica.它從目標表抽取資料載入到結果表 hive 資料庫.測試思路 a.測試抽取的符合...