ceph 分布式 儲存服務 恢復

2021-10-13 10:47:12 字數 4318 閱讀 1235

systemctl isolate multi-user.target
適用於 ceph 15 + octopus ,cephadm 自動部署

知曉 fsid

大部分檔案未丟失

完整步驟可以參考 官網,或者博主的 其他 ceph 系列部落格

cephadm 依賴 python36 ,

安裝時,請開啟**工具

curl --silent --remote-name --location 

chmod +x cephadm

./cephadm --help

./cephadm add-repo --release octopus

./cephadm install

systemctl list-dependencies ceph.target

ceph.target

● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@alertmanager.host-192-168-141-20.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@crash.host-192-168-141-20.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@grafana.host-192-168-141-20.service

● ├─[email protected]_fs.host-192-168-141-20.mcwtpb.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mgr.host-192-168-141-20.fsdiay.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mon.host-192-168-141-20.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@node-exporter.host-192-168-141-20.service

● ├─[email protected]

● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@prometheus.host-192-168-141-20.service

保證整個ceph 下盡量只有乙個集群配置。

如果存在多餘的 ceph 服務, 可以通過 cephadm 進行刪除

博主一開始不太會使用, 多次執行了 cephadm bootstrap 指令,建立了 多個 ceph 服務

只保留乙個集群

# rm--cluster 會刪除

# /var/lib/ceph/

# /var/log/ceph/

# /etc/systemd/system/**

# 並且移除多餘的 正在執行 docker 容器

cephadm rm-cluster --fsid dc05693c-48bb-11eb-84da-fa163e717f07 --force

# 刪除之後可以確認一下

ls /var/lib/ceph/

2aa7de1c-497a-11eb-b926-fa163e717f07

ls /var/log/ceph/

2aa7de1c-497a-11eb-b926-fa163e717f07

ls /etc/systemd/system/

。。。。。

docker ps

。。。。

systemctl isolate multi-user.target
systemctl 中包含 以下概念

systemctl service

systemctl unit

systemctl want

systemctl target

多個 service 組成 unit

unit 可以被 其他unit 依賴 形成

unit_1 target unit_2

然後 具體的 want 關係又會存放在 相應的 wants 目錄中

systemctl isolate multi-user.target 

真實作用是 切換 linux 作業系統的 工作模式

我們的伺服器執行在 多使用者 無介面模式。

cephadm bootstrap 集群的時候,會在 /etc/systemd/system 下安裝 ceph 集群自啟動服務

cat /etc/systemd/system/ceph.target

[unit]

description=all ceph clusters and services

[install]

wantedby=multi-user.target

***檔案的意思 就是 ceph.target 依賴於 多使用者啟動 target

/etc/systemd/system/ceph.target 會去遍歷 相應的 wants 目錄

-->

ls /etc/systemd/system/ceph.target.wants

ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target

相應的 ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target 又會去遍歷 對應的 want 目錄

-->

ls /etc/systemd/system/ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target.wants

ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@alertmanager.host-192-168-141-20.service ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mon.host-192-168-141-20.service

ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@crash.host-192-168-141-20.service

....

....

....

....

..

systemctl list-dependencies ceph.target

-->

ceph.target

● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07.target

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@alertmanager.host-192-168-141-20.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@crash.host-192-168-141-20.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@grafana.host-192-168-141-20.service

● ├─[email protected]_fs.host-192-168-141-20.mcwtpb.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mgr.host-192-168-141-20.fsdiay.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@mon.host-192-168-141-20.service

● ├─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@node-exporter.host-192-168-141-20.service

● ├─[email protected]

● └─ceph-2aa7de1c-497a-11eb-b926-fa163e717f07@prometheus.host-192-168-141-20.service

分布式儲存系統 Ceph

你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...

分布式儲存系統 Ceph

你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...

Ceph分布式儲存系統簡介

內容 注 了解ceph的作用與基本概念 ceph是乙個可靠地 自動重均衡 自動恢復的分布式儲存系統,根據場景劃分可以將ceph分為三大塊,分別是物件儲存 塊裝置儲存和檔案系統服務。在虛擬化領域裡,比較常用到的是ceph的塊裝置儲存,比如在openstack專案裡,ceph的塊裝置儲存可以對接open...