大資料Sqoop系列之Sqoop匯入匯出資料

2021-08-20 18:22:25 字數 2152 閱讀 4676

​## 鏈結mysql資料庫url

--connect jdbc:mysql:

## 鏈結mysql資料庫使用者名稱

--username root

## 鏈結mysql資料庫密碼

--password 123456

## 鏈結mysql資料庫中的表

--table tb1

## 設定map的個數

## 設定匯入到hdfs檔案所在的位置

--target-dir /datas/sqoop/input

## 設定匯入到hdfs檔案前先刪除已經存在的目錄

--delete-target-dir

## 設定匯入到hdfs檔案的分隔符

--fields-teminated-by ','

## 設定增量匯入到hdfs上的檢查列

--check-column id

## 設定增量匯入到hdfs上的追加方式

## 設定增量匯入到hdfs上的開始位置

--last-value 4

## 設定增量匯入到hdfs上的檔案儲存格式

--as-parquetfile

## 指定hive中的資料庫

--hive-database test_db

## 設定操作型別

--hive-import

## 指定hive中的表

--hive-table tb1

sqoop list-databases \

--connect jdbc:mysql: \

--username root \

--password 123456;

sqoop import \

--connect jdbc:mysql: \

--username root \

--password 123456 \

--table tb1 \

--target-dir /datas/sqoop/input \

--delete-target-dir;

sqoop import \

--connect jdbc:mysql:/test \

--username root \

--password 123456 \

--table tb1 \

--fields-terminated-by ',' \

--delete-target-dir \

--hive-database test \

--hive-import \

--hive-table tb1;

## 鏈結mysql資料庫url

--connect jdbc:mysql:

## 鏈結mysql資料庫使用者名稱

--username root

## 鏈結mysql資料庫密碼

--password 123456

## 鏈結mysql資料庫中的表

--table tb1

## 設定map的個數

## 設定hdfs檔案匯出的分隔符

--fields-terminated-by ','

## 設定hdfs檔案所在的位置

--export-dir /user/hive/warehouse/test_db.db/tb1

sqoop export \

--connect jdbc:mysql: \

--username root \

--password 123456 \

--table tb1 \

--fields-terminated-by ',' \

--export-dir /user/hive/warehouse/test_db.db/tb1;

大資料 八 Sqoop

sqoop是什麼 sqoop sql to hadoop 連線 傳統關係型資料庫 和 hadoop 的橋梁 把關係型資料庫的資料匯入到 hadoop 系統 如 hdfs hbase 和 hive 中 把資料從 hadoop 系統裡抽取並匯出到關係型資料庫裡。利用mapreduce加快資料傳輸速度 將...

大資料 Sqoop簡介

sqoop 發音 skup 是sql to hadoop的縮寫,是一款開源的工具,主要用來在hadoop和關係資料之間交換資料,可以改進資料的資料的互操作性。通過sqoop,可以方便地將資料從mysql oracle postgresql等關聯式資料庫中匯入hadoop 比如匯入到hdfs hbas...

大資料學習 sqoop匯出資料

把資料從hadoop匯出到關係型資料庫 將資料從hdfs匯出到rdbms資料庫 匯出前,目標表必須存在於目標資料庫中。u 預設操作是從將檔案中的資料使用insert語句插入到表中 u 更新模式下,是生成update語句更新表資料 以下是export命令語法。sqoop export generic ...