raid0兩塊硬碟損壞資料恢復過程

2021-08-20 13:18:06 字數 880 閱讀 5451

前幾天接到一組4塊盤scsi raid0+1的資料恢復,客戶說做了兩組raid1,現在raid狀態裡顯示有3快盤offline。如果兩組盤分別作raid1,現在也應該有一組邏輯盤可以正常工作,但是事實並不是這樣,我就表示有疑問了,什麼原因?

把硬碟單獨鏈結scsi介面卡進入系統沒有發現異常,也沒有明顯的raid資訊區域,比較之後發現1、3號盤及2、4號盤每組都有相同性,但後面有大量不一致資料。1號盤及2號盤裡有分割槽表,每個分割槽表裡的描述都大約指出原邏輯盤分割槽總和大約68g。

莫非是兩組raid0?但1、3號及2、4號均有部分完全相同的資料,這不科學。那就是raid1+0(即兩兩做raid1,再做raid0,這種安全級別高,客戶是整合商做的,可能性最大),一段時間內,兩組raid1中先後都有一塊硬碟離線(此後就相當於raid0,再不能提供任何冗餘)。再後來,又有一塊硬碟離線,系統崩潰。這種情況非常符合raid裡的表現。也有可能是raid0+1(即兩兩做raid0,再做raid1,這種不太好,推斷可能性不大)。這樣一來的話除1、3組成的raid,沒有任何錯誤,重組資料直接寫回raid,系統正常可以啟動,檔案訪問也正常。

但是驗證的時候出現了問題,這都是兩年前的資料!!!難道是使用者做了raid0+1,結果組成raid1中的其中一組raid0中有一塊盤離線(應該為1或3),導致整個raid0離線(兩塊離線了),之後一直以單raid0的方式工作(想起來竟然兩年有餘,汗!),直到最近,剩下的一組raid0中有一塊盤離線,raid徹底癱瘓。使用者使用的raid卡為adaptec的0通道raid卡,比較低端,無法安全緩衝資料,最後離線時,因資料部分未寫入等原因導致檔案系統一致性有問題。

重新組織3及5號盤,修正錯誤,資料100%恢復成功。

raid管理工具 mdadm 管理raid0

mdadm介紹管理軟raid工具 mdadm mdadm是linux下用於建立和管理軟體raid的命令,是乙個模式化命令mdadm 命令的引數 c 建立乙個新陣列 a 啟用磁碟陣列 a 新增裝置到陣列 d 列印陣列裝置詳細資訊 s 掃瞄配置檔案或者 proc mdstat 得到陣列缺失資訊 v 顯示...

RAID50是RAID5與RAID0的結合

raid50是raid5與raid0的結合 此配置在raid5的子磁碟組的每個磁碟上進行包括奇偶資訊在內的資料的剝離。每個raid5子磁碟組要求三個硬碟。raid50具備更高的容錯能力,因為它允許某個組內有乙個磁碟出現故障,而不會造成資料丟失。而且因為奇偶位分部於raid5子磁碟組上,故重建速度有很...

嵌入式powerpc的Raid0製作

依次刪除刪除四個分割槽的所有分割槽表 fdisk dev sdadw fdisk dev sdbdw fdisk dev sdcdw fdisk dev sdddw 刪除完畢後重啟 重啟後lsblk看到裝置樹已經變成了 表示之前的raid0已經完全刪除乾淨。mdadm create auto yes...