
我在我的舊電腦上進行了 3 個磁碟的 raid 5,但主機板壞了。我將所有磁碟放入一台新電腦中,但 raid 不再需要啟動。啟動電腦時,我可以看到所有磁碟,並且 mdadm -E /dev/sd [bcd]1 告訴我所有三個磁碟都是乾淨的。 Cat /proc/mdstat 說 /dev/md0 : inactive sdc13 sdd11 sdb10 我在這個機器上運行 fedora 15。非常感謝任何啟動這次突襲的提示!
--已編輯-- 同時,我重新安裝了作業系統(在一個新的獨立磁碟上,該作業系統從來不是 raid 的一部分),並使用了 CentOS 7。
輸出:
mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 822d3a00:cf68046c:45de1427:d65beb68
Internal Bitmap : 8 sectors from superblock
Update Time : Mon Nov 10 22:19:29 2014
Checksum : 195e3a86 - correct
Events : 1527192
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing)
mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4
Internal Bitmap : 8 sectors from superblock
Update Time : Tue Nov 11 19:01:52 2014
Checksum : d11417ca - correct
Events : 1527199
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
3907024896 blocks super 1.1
unused devices: <none>
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
顯然此時他遺失了一個磁碟(也不在 /dev 清單中),可能是移動電腦後電纜鬆動了。我現在正在辦公室透過 SSH 訪問它(我在那裡花了太多時間)。通常,第三個磁碟的 mdadm -E /dev/sdX1 會提供與其他兩個磁碟類似的輸出。
- - 編輯 - -
第三個磁碟的連接埠似乎壞了,將其連接到另一張卡後,我也得到了 mdadm -E 這個!
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67
Internal Bitmap : 8 sectors from superblock
Update Time : Fri May 4 09:51:16 2012
Checksum : 262a346f - correct
Events : 82967
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
cat /proc/mdstat 現在說
# cat /proc/mdstat
Personalities :
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
5860537344 blocks super 1.1
unused devices: <none>
那麼,我現在如何讓這個 raid 重新上線,至少足夠長的時間來複製盡可能多的資料?
答案1
我假設您進行了全新安裝並將磁碟機新增至新電腦。
首先做一個:
mdadm --assemble --scan
並查看/proc/mdstat
陣列是否已啟動。然後運行:
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
再次取得新 mdadm.conf 中的設定資訊。