ceph分布式建立與使用(下)

2021-10-25 08:52:42 字數 1580 閱讀 5959

在基礎環境部署完成後進行

1.在node-1 結點上安裝部署工具 ceph-deploy

yum install -y ceph-deploy

mkdir ceph-cluster

cd ceph-cluster/

給其他三颱同步安裝

for i in  200 106 164; do ssh 192.168.4.$i "yum install -y ceph-mon ceph-osd ceph-mds ceph-radosgw"; don

rpm -qa | grep ceph #檢視包數量

2.初始化 mon 配置,檔案為 ceph.conf(必須在 ceph-cluster 當前目錄下操作)

#ceph-deploy new node-1 node-2 node-3

cat ceph.conf

ls /etc/ceph/

3.遠端所有 node 主機,拷貝配置檔案,並啟動 ceph-mon 服務,配置檔案被拷貝到/etc/ceph/ceph.conf

ceph-deploy mon create-initial
檢視集群狀態

ceph -s
此時應該顯示health_err狀態,因為沒有啟動osd沒有共享

4.建立osd磁碟

準備磁碟分割槽,分割槽用於做快取

for i in node-1 node-2 node-3;do ssh $i ;"parted /dev/vdb mklabel gpt";ssh $i "parted /dev/vdb mkpart primary 1 100%";done
修改磁碟的屬性

for i in node-1 node-2 node-3

> do

> ssh $i "chown ceph.ceph /dev/vdb1"

> done

cd ceph-cluster/ #必須在這個目錄下操作

for i in node-1 node-2 node-3

> do

> ceph-deploy disk zap $i:vdc #初始化清空磁碟資料

> done

建立空間

for i in node-1 node-2 node-3

> do

> ceph-deploy osd create $i:vdc:/dev/vdb1 #建立 osd 儲存裝置,vdc 提供

儲存空間,vdb1 為快取

> done

檢視狀態

ceph -s
以顯示3 個 osd和總容量

ceph osd tree #檢視集群狀態 osd 樹

systemctl status ceph-osd@0 #檢視 ceph-osd啟動以數字結尾,從 0 開始

到這ceph就部署完成了

ceph分布式建立與使用(上)

系統 centos7.6 前提 四台kvm虛擬機器 簡述 四台為統一網段192.168.4.0 24,第四台為client ntp同步伺服器 以下ip都是例子具體看自己主機ip,ip a 或ifconfig hostname ipnode 1 192.168.4.185 node 2 192.168...

linux下ceph分布式安裝使用教程

目錄 k8s集群使用什麼樣的儲存比較好那,我調研了一下分布式儲存ceph,在這裡分享給大家。node1 admin,osd,mon node2 osd,mds,client 修改主機名,切記主機名不能出現下劃線 修改主機名 etc hostname hostnamectl set hostname ...

分布式儲存系統 Ceph

你了解ceph嗎?ceph是一種分布式儲存系統,它可以將多台伺服器組成乙個超大集群,把這些機器中的磁碟資源整合到一塊兒,形成乙個大的資源池 pb級別 然後按需分配給應用使用。那麼你知道ceph的架構嗎?ceph的底層實現是rados,rados是由c 寫的,但是它向外界暴露了呼叫介面,即librad...