Linux格式化並重新載入磁碟

2021-06-29 09:11:39 字數 1253 閱讀 2098

今天在用fio做完centos系統io對比測試後,發現個嚴重的問題,用df工具檢視磁碟,發現經過fio寫操作的磁碟容量變成了這樣:

瞬間就有一種不好的感覺,果然,經過多方查證,是由於磁碟反覆進行寫操作導致檔案儲存資訊被破壞,只能進行格式化了。(吐槽一下,坑爹的fio,在測試之前完全沒看到有這方面的說明)

在網上蒐集了一下linux下磁碟格式化步驟,寫下來和大家分享一下:

解除安裝要格式化的磁碟(如果不解除安裝是不能進行格式化的)

需要停止data2上的檔案使用

#fuser -km /data2

然後再執行umount命令即可解除安裝

格式化磁碟/dev/sdb,並在其上建立ext4格式的檔案系統

中間出現writing superblocks and filesystem accounting information:時直接回車即可

使用df檢視,發現沒有該磁碟資訊

使用fdisk磁碟工具可以看到這個磁碟檔案系統是已經建好了,導致這個的原因是我們還沒對其進行掛載

我們在根目錄下新建乙個目錄作為掛載點對磁碟進行掛載,不過由於我之前已經有data2目錄,故直接掛載在其上,並用df檢視是否掛載成功

這裡我們已經成功掛載磁碟,但是由於沒有配置開機自動掛載,所以如果重啟那麼該磁碟又要手動掛載,所以在此我們更改配置讓它能開機掛載

完成! 

Linux下GPT格式磁碟重新格式化為MBR格式

fdisk命令是針對mbr分割槽格式的,雖然能用g命令把磁碟格式化為gpt,但是無法再重新格式化為mbr格式,因為fdisk命令無法操作gpt格式的磁碟。用parted命令可以很簡單的解決上面的問題 parted dev vdb parted mktable new disk label type?...

重新格式化hadoop

首先將hdfs site.xml檔案中的 片 dfs.name.dir home hadoop hdfs name namenode上儲存hdfs名字空間元資料 dfs.data.dir home hadoop hdsf data datanode上資料塊的物理儲存位置 中的指定目錄刪除。然後將co...

Hadoop重新格式化

hadoop進行多次的格式化 hdfs namenode format 會導致找不到datanode結點。每次格式化後,名稱結點 的clusterid 集群id 會被新建,而資料結點的clusterid還是原來的,造成名稱結點和資料節點的clusterid不一致 在重新格式化之前一定要先刪除data...