Linux下組建軟RAID1實戰3

2021-06-15 21:41:35 字數 2966 閱讀 9414

上面的兩章中已經完成了基本的環境和虛擬盤,現在就可以開始做raid了

先鏈結到虛擬機器上,在shell視窗下

我的環境如下:

login as: root

[email protected]'s password:

last login: wed jun 20 22:47:28 2007

[root@localhost root]# fdisk -l

disk /dev/sda: 8589 mb, 8589934592 bytes

255 heads, 63 sectors/track, 1044 cylinders

units = cylinders of 16065 * 512 = 8225280 bytes

device boot    start       end    blocks   id  system

/dev/sda1   *         1        13    104391   83  linux

/dev/sda2            14       947   7502355   83  linux

/dev/sda3           948      1044    779152+  82  linux swap

disk /dev/sdb: 2147 mb, 2147483648 bytes

255 heads, 63 sectors/track, 261 cylinders

units = cylinders of 16065 * 512 = 8225280 bytes

disk /dev/sdb doesn't contain a valid partition table

disk /dev/sdc: 2147 mb, 2147483648 bytes

255 heads, 63 sectors/track, 261 cylinders

units = cylinders of 16065 * 512 = 8225280 bytes

disk /dev/sdc doesn't contain a valid partition table

[root@localhost root]#

使用mdadm -cv /dev/md0 -l1 -n2  -c128 /dev/sd[b,c] 命令建立乙個raid1(具體軟體用法,見最後)

系統提示開始建立,可以使用cat /proc/mdstat命令檢視建立進度,到100%時就好了。

然後就是建立檔案系統了,使用mkfs.ext3 /dev/md0就搞定了

最後就是mount了mount /dev/md0 /mnt

使用samba向/mnt裡拷貝檔案,在linux下使用,ok。

重啟虛擬機器,raid1丟失,暈,原來需要將虛擬機器資訊寫入乙個/etc/mdadm.conf檔案,在其中寫入如下內容:

device /dev/sdb /dev/sdc

array /dev/md0 devices=/dev/sdb,/dev/sdc

再次重啟,使用mdadm -a -s命令掃瞄磁碟,重新mount裝置,ok!

就是這個效果

可以看見其中的/mnt 資料夾是mount的/dev/md0裝置,可以開啟裡面的瀏覽,表明測試完成。

不過實驗中也發現了一些問題,比如將乙個裝置刪掉以後,raid1就無法啟動了,提示裝置丟失,還請高手指點如何繼續使用raid1和同步回資料。

附:網上收集的mdadm簡單命令列表:

mdadm用法

基本語法 : mdadm [mode] [options]

mode  有7種:

assemble:將以前定義的某個陣列加入當前在用陣列。

build:build a legacy array ,每個device 沒有 superblocks

create:建立乙個新的陣列,每個device 具有 superblocks

manage: 管理陣列,比如 add 或 remove

misc:允許單獨對陣列中的某個 device 做操作,比如抹去superblocks 或 終止在用的陣列。

follow or monitor:監控 raid 1,4,5,6 和 multipath 的狀態

grow:改變raid 容量或 陣列中的 device 數目

可用的 [options]:

-a, --assemble:加入乙個以前定義的陣列

-b, --build:build a legacy array without superblocks.

-c, --create:建立乙個新的陣列

-q, --query:檢視乙個device,判斷它為乙個 md device 或是 乙個 md 陣列的一部分

-d, --detail:列印乙個或多個 md device 的詳細資訊

-e, --examine:列印 device 上的 md superblock 的內容

-f, --follow, --monitor:選擇 monitor 模式

-g, --grow:改變在用陣列的大小或形態

-h, --help:幫助資訊,用在以上選項後,則顯示該選項資訊

--help-options

-v, --version

-v, --verbose:顯示細節

-b, --brief:較少的細節。用於 --detail 和 --examine 選項

-f, --force

-c, --config= :指定配置檔案,預設為 /etc/mdadm.conf

-s, --scan:掃瞄配置檔案或 /proc/mdstat以搜尋丟失的資訊。配置檔案/etc/mdadm.conf

mdadm.conf 格式:

device  所用到的裝置分割槽列表(在mdadm掃瞄時,將掃瞄這些分割槽)

array   定義實際的磁碟陣列

Linux下組建軟RAID1實戰1

好久沒寫部落格了,今天有空寫點東西。在公司裡是做平台的,對磁陣,卷管理,雙機都還比較熟悉,但是公司裡使用的都是3510磁陣 vxvm卷管理軟體 vcs組建的雙機系統,拿來玩可買不起,太高。想了一下,在虛擬機器下似乎可以把這些都虛擬出來,正好試試。1.安裝vmware虛擬機器,我的是5.0,這個估計大...

軟RAID1 更換壞硬碟

1.買塊容量一樣大小的硬碟 2.把新買的硬碟安裝到機器了 3.分割槽硬碟並把t的型別設為 fd 我新新增的硬碟碟符為 dev sdb fdisk dev sdb 4.執行 partprobe 讓核心重新裝載分割槽表 5.停止raid1的掛載 umount dev md0 6.移除損壞的裝置 mdad...

誤刪除raid1後重新恢復raid1

今天由於客戶需要,需將之前做的raid5改為raid0。簡單的說下環境,這是某廠商的其中一款儲存裝置,os為linux版本,12塊2tsata盤,lsi 硬raid。我將其中2塊盤做raid1,安裝ubuntu 11.04,另10塊盤採用9 1做raid5。如下圖,可以看到已經做過的配置 結果我一不...