增加 刪除 OSD

2021-08-20 03:55:44 字數 1740 閱讀 4705

新增和拆除 ceph 的 osd 程序相比其它兩種要多幾步。 osd 守護程序把資料寫入磁碟和日誌,所以你得相應地提供一 osd 資料盤和日誌分割槽路徑(這是最常見的配置,但你可以按需調整)。

從 ceph v0.60 起, ceph 支援 dm-crypt

加密的硬碟,在準備 osd 時你可以用 --dm-crypt

引數告訴 ceph-deploy

你想用加密功能。也可以用 --dmcrypt-key-dir

引數指定 dm-crypt

加密金鑰的位置。

在投建乙個大型集群前,你應該測試各種驅動器配置來衡量其吞吐量。詳情見資料儲存。

執行下列命令列舉一節點上的磁碟:

ceph-deploy disk list

用下列命令擦淨(刪除分割槽表)磁碟,以用於 ceph :

ceph-deploy disk zap :

ceph-deploy disk zap osdserver1:sdb

important

這會刪除所有資料。

建立集群、安裝 ceph 軟體包、收集金鑰完成後你就可以準備 osd 並把它們部署到 osd 節點了。如果你想確認某磁碟或擦淨它,參見列舉磁碟和擦淨磁碟。

ceph-deploy osd prepare :[:]

ceph-deploy osd prepare osdserver1:sdb:/dev/ssd

ceph-deploy osd prepare osdserver1:sdc:/dev/ssd

prepare

命令只準備 osd 。在大多數作業系統中,硬碟分割槽建立後,不用 activate

命令也會自動執行 activate

階段(通過 ceph 的 udev

規則)。詳情見啟用 osd。

前例假定乙個硬碟只會用於乙個 osd 守護程序,以及乙個到 ssd 日誌分割槽的路徑。我們建議把日誌儲存於另外的驅動器以最優化效能;你也可以指定一單獨的驅動器用於日誌(也許比較昂貴)、或者把日誌放到 osd 資料盤(不建議,因為它有損效能)。前例中我們把日誌儲存於分好區的固態硬碟。

note

在乙個節點執行多個 osd 守護程序、且多個 osd 守護程序共享乙個日誌分割槽時,你應該考慮整個節點的最小 crush 故障域,因為如果這個 ssd 壞了,所有用其做日誌的 osd 守護程序也會失效。

準備好 osd 後,可以用下列命令啟用它。

ceph-deploy osd activate :[:]

ceph-deploy osd activate osdserver1:/dev/sdb1:/dev/ssd1

ceph-deploy osd activate osdserver1:/dev/sdc1:/dev/ssd2

activate

命令會讓 osd 進入 up

且 in

狀態,此命令所用路徑和 prepare

相同。你可以用 create

命令一次完成準備 osd 、部署到 osd 節點、並啟用它。 create

命令是依次執行 prepare

和 activate

命令的捷徑。

ceph-deploy osd create :[:]

ceph-deploy osd create osdserver1:sdb:/dev/ssd1

note

稍後完成。手動過程見刪除 osd 。

出處:

ceph增加osd流程

假如需要新增乙個主機名 osd4 ip 192.168.0.110的osd 1.在osd4建立掛載目錄及放置配置檔案的目錄 ssh 192.168.0.110 這裡是從mon主機ssh到osd4主機 mkdir ceph osd.4 mkdir etc ceph 2.在osd4上格式化ext4的sd...

新增 刪除osd節點步驟

1 ceph osd tree 檢視目前cluster 狀態 df h mnt ceph vol1 確保node1掛載了rbd,在節點 node1上執行2 在節點node4上安裝ceph 並複製ceph.conf到其相應位置,同時在 etc hosts裡新增節點node4和相應ip,並推送到所有節點...

刪除OSD的正確方式

ceph osd crush reweight osd.0 0.1說明 這個地方如果想慢慢的調整就分幾次將crush 的weight 減低到0 這個過程實際上是讓資料不分布在這個節點上,讓資料慢慢的分布到其他節點上,直到最終為沒有分布在這個osd,並且遷移完成。這個地方不光調整了osd 的crush...