
古いコンピューターに 3 つのディスクを搭載した RAID 5 がありましたが、マザーボードが壊れてしまいました。新しいコンピューターにすべてのディスクを入れましたが、RAID が起動しません。PC を起動すると、すべてのディスクが表示され、mdadm -E /dev/sd [bcd]1 を実行すると、3 つのディスクすべてがクリーンであると表示されます。Cat /proc/mdstat は、/dev/md0 : inactive sdc13 sdd11 sdb10 と表示します。このボックスでは fedora 15 を実行しています。この RAID を起動するためのヒントがあれば、ぜひ教えてください。
--編集済み-- その間に、OS を再インストールし (新しい別のディスクに、OS は RAID の一部ではありませんでした)、CentOS 7 を使用しました。
出力:
mdadm -E /dev/sda1
/dev/sda1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 822d3a00:cf68046c:45de1427:d65beb68
Internal Bitmap : 8 sectors from superblock
Update Time : Mon Nov 10 22:19:29 2014
Checksum : 195e3a86 - correct
Events : 1527192
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 1
Array State : .AA ('A' == active, '.' == missing)
mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4
Internal Bitmap : 8 sectors from superblock
Update Time : Tue Nov 11 19:01:52 2014
Checksum : d11417ca - correct
Events : 1527199
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 2
Array State : ..A ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
3907024896 blocks super 1.1
unused devices: <none>
mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
どうやらこの時点で、彼はディスクの 1 つを紛失したようです (/dev リストにもありません)。おそらく、コンピューターを移動した後にケーブルが緩んだのでしょう。私は現在、オフィスから SSH 経由でアクセスしています (ここでかなり多くの時間を費やしています)。通常、3 番目のディスクの mdadm -E /dev/sdX1 は、他の 2 つのディスクと同様の出力を出力します。
- - 編集 - -
3 番目のディスクのポートが壊れているようでしたが、別のカードに接続した後、これも mdadm -E で実行できました。
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
Name : HappyFiles:0
Creation Time : Mon Jun 6 19:07:27 2011
Raid Level : raid5
Raid Devices : 3
Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
Data Offset : 2048 sectors
Super Offset : 0 sectors
State : clean
Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67
Internal Bitmap : 8 sectors from superblock
Update Time : Fri May 4 09:51:16 2012
Checksum : 262a346f - correct
Events : 82967
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA ('A' == active, '.' == missing)
cat /proc/mdstatは次のように表示します
# cat /proc/mdstat
Personalities :
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
5860537344 blocks super 1.1
unused devices: <none>
では、この RAID をオンラインに戻して、少なくともそこから可能な限り多くのデータをコピーできるまで待つにはどうすればよいでしょうか?
答え1
新規インストールを実行し、新しいコンピュータにドライブを追加したと想定します。
まず最初に以下を実行します:
mdadm --assemble --scan
/proc/mdstat
アレイがアクティブ化されているかどうかを確認します。次に、次のコマンドを実行します。
mdadm --examine --scan >> /etc/mdadm/mdadm.conf
新しい mdadm.conf 内の設定情報を再度取得します。