Ceph在Ubantu14 04系統的安裝

2022-04-26 02:09:46 字數 4557 閱讀 1541

注:下文的所有操作都在admin節點進行

1、準備三颱虛擬機器,其中一台作為admin節點,另外兩台作為osd節點,並相應地用hostname命令將主機名修改為admin,osd0,osd1,最後修改/etc/hosts檔案;

在ubuntu系統中主機名存放在/etc/hostname檔案中,修改主機名時,編輯hostname檔案,在檔案中輸入新的主機名並儲存該檔案即可;

root@admin:vi /etc/hostname

/etc/hosts存放的是網域名稱與ip的對應關係,網域名稱與主機名沒有任何關係,你可以為任何乙個ip指定任意乙個名字

root@admin:vi /etc/hosts

最後修改/etc/hosts檔案如下所示(每台主機上相同):

127.0.0.1       localhost

192.168.1.166    admin

192.168.1.167    osd0

192.168.1.168   osd1

2、設定集群內每台主機可以用root登陸(預設ubantu不能用root使用者登陸)確保三颱主機之間可以ssh登陸root使用者

2.1 新建lightdm.conf 檔案

root@admin:vi  /etc/lightdm/lightdm.conf

2.2在其中新增如下的內容;

[seatdefaults]

autologin-user=root

greeter-session=unity-greeter

user-session=ubuntu

greeter-show-manual-login=true

allow-guest=false

2.3修改root密碼

sudo passwd root

2.4  修改 /etc/ssh/sshd_config

root@admin: vi /etc/ssh/sshd_config

2.5注釋掉 #permitrootlogin without-password,新增 permitrootlogin ye

# authentication:

logingracetime 120

#permitrootlogin without-password

permitrootlogin yes

strictmodes yes

2.6重啟 系統

root@admin: reboot

3、配置免密碼訪問

ssh-keygen        //一直按回車即可,產生公鑰私鑰對

ssh-copy-id -i /root/.ssh/id_rsa.pub osd0  //將本地公鑰複製到osd0機器上,實現免密碼訪問

ssh-copy-id -i /root/.ssh/id_rsa.pub osd1

4、安裝ntp

apt-get install ntp

確保在各 ceph 節點上啟動了 ntp 服務,並且要使用同乙個 ntp 伺服器;

5、安裝ceph-deploy預設163映象中已經存在ceph-deploy

apt-get install ceph-deploy

6、建立集群目錄並進入

mkdir ceph-cluster

cd ceph-cluster

7、建立集群,會在當前目錄下看到ceph.conf ceph.log ceph.mon.keyring三個檔案

ceph-deploy new admin

8、安裝ceph

ceph-deploy install admin osd0 osd1

9、加乙個ceph集群監視器,在admin節點建立即可

ceph-deploy mon create admin

10、收集秘鑰,目錄下會多出ceph.bootstrap-mds.keyring  ceph.client.admin.keyring  ceph.client.admin.keyring這幾個檔案

ceph-deploy gatherkeys admin

11、增加2osd,為了快速安裝,為每個ceph os守護程序使用單個目錄而非單個磁碟

ssh osd0

sudo mkdir /tmp/osd0

exit

ssh osd1

sudo mkdir /tmp/osd1

exit

12、準備osd

ceph-deploy osd prepare osd0:/tmp/osd0 osd1:/tmp/osd1

13、啟用osd

ceph-deploy osd activate osd1:/tmp/osd1

14、將配置檔案和管理金鑰複製到管理節點和ceph節點,下次再使用ceph命令介面時就無需指定集群監視器位址,執行命令時也無需每次都指定ceph.client.admin.keyring

ceph-deploy admin osd0 osd1

15、檢查集群健康狀況

ceph health

但是這時返回的不是健康狀態,而是health_warn 192 pgs degraded; 192 pgs stuck unclean,這時再另外新增乙個osd節點即可

16、擴充套件集群,在admin節點新增乙個osd,然後ceph health就能返回health_ok的狀態了

mkdir /tmp/osd2

ceph-deploy osd prepare admin:/tmp/osd2

ceph-deploy osd activate admin:/tmp/osd2

ceph-deploy admin osd0 osd1

ceph health

顯示health_ok

17、新增原資料伺服器

root@admin:/cept-cluster# ceph-deploy mds create admin

至少需要乙個元資料伺服器才能使用 cephfs ,執行下列命令建立元資料伺服器;

scp /etc/ceph/ceph.client.admin.keyring root@osd1:/etc/ceph/

在Ubantu上使用Chrome

一 安裝shadowsocks 我是根據 5 進行安裝 apt get install python pip pip install git 然後在 etc下新建shadowsocks conf.json檔案,內容如下 sudo sslocal c etc shadowsocks conf.json...

在Ubantu上安裝tensorflow

安裝之前,需要安裝cuda和cudnn,見我另兩篇配套文章 cuda安裝 cudnn安裝 ubantu 16.04 cuda 8ga2 沒有安裝update 其實就是pip啦。裝好了就不用裝了。sudo apt get install python pip python dev少輸入第二項後果自負。...

ceph 在虛擬機器上搭建ceph集群

本實驗利用三颱虛擬機器搭建ceph集群。環境 vmware ubuntu18.04 3 主機名與主機ip ceph node1 192.168.50.101 ceph node2 192.168.50.102 ceph node3 192.168.50.103 最後在三颱機器上都各部署乙個monit...