aws ec2 匯出成ova,匯入到vmware

2022-06-16 06:48:10 字數 802 閱讀 8946

目的:專案遷移,從aws遷移到其他雲商c

調研:aws ec2支援匯出成ova格式,c雲商也支援後台匯入

步驟步驟:

1)aws ec2安裝aws cli

參考2)建立1個s3桶(和ec2同在乙個region)

s3桶需要開啟授權,允許ova匯出的賬號id寫入檔案的許可權

如果您以 aws identity and access management (iam) 使用者身份登入,那麼您的 iam 策略中需要配置許可權,才能使用 vm import/export

參考3)啟動匯出任務(目前只支援匯出根目錄所在磁碟的內容,可以把掛載盤的資料mv到根目錄下)

ec2的/root建立乙個file.json

匯出動作命令,執行此命令會有1次自動重啟

aws ec2 create-instance-export-task --instance-id 例項id --target-environment vmware --export-to-s3-task file:

檢視匯出狀態

aws ec2 describe-export-tasks --export-task-ids 任務名稱

取消例項匯出任務

aws ec2 cancel-export-task --export-task-id 任務名稱

匯入到本地的vmare workstation測試,啟動ok,上網正常。

順利完成

如遇到問題,可以檢視問題彙總

bcp匯入到mysql BCP 匯入匯出資料庫資料

使用 bcp 將資料庫遷移到 azure sql database 所有 都是在本機sql上執行 先開啟cmdshell exec sp configure show advanced options 1 goreconfigure goexec sp configure xp cmdshell 1...

從Oracle匯出資料並匯入到Hive

1 配置源和目標的資料連線 源 oracle 目標 hive 2.1.1 系統自帶2.1.1的驅動jar包,如果該版本無法相容你的hive,可將對應版本hive驅動jar包匯入hhdi的lib目錄中。自帶的jar包包括以下檔案 hadoop common 2.6.0.jar hive common ...

sqoop2從hdfs中匯入到mysql

資料準備 hive資料庫檔案 例路徑為 user hadoop hive test 在mysql建立與hive中資料庫結構一樣的資料庫。啟動sqoop2服務 sqoop2 server start 登入客戶端 sqoop2 shell 建立資料庫物件 建立hdfs的link物件 建立乙個job作業 ...