RAID 5が起動しない

RAID 5が起動しない

古いコンピューターに 3 つのディスクを搭載した RAID 5 がありましたが、マザーボードが壊れてしまいました。新しいコンピューターにすべてのディスクを入れましたが、RAID が起動しません。PC を起動すると、すべてのディスクが表示され、mdadm -E /dev/sd [bcd]1 を実行すると、3 つのディスクすべてがクリーンであると表示されます。Cat /proc/mdstat は、/dev/md0 : inactive sdc13 sdd11 sdb10 と表示します。このボックスでは fedora 15 を実行しています。この RAID を起動するためのヒントがあれば、ぜひ教えてください。

--編集済み-- その間に、OS を再インストールし (新しい別のディスクに、OS は RAID の一部ではありませんでした)、CentOS 7 を使用しました。

出力:

mdadm -E /dev/sda1                                                                                                           
/dev/sda1:                                                                                                                                        
          Magic : a92b4efc                                                                                                                        
        Version : 1.1                                                                                                                             
    Feature Map : 0x1                                                                                                                             
     Array UUID : aa1739a9:abf29975:85909ad4:7ce90400                                                                                             
           Name : HappyFiles:0
  Creation Time : Mon Jun  6 19:07:27 2011
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 0 sectors
          State : clean
    Device UUID : 822d3a00:cf68046c:45de1427:d65beb68

Internal Bitmap : 8 sectors from superblock
    Update Time : Mon Nov 10 22:19:29 2014
       Checksum : 195e3a86 - correct
         Events : 1527192

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AA ('A' == active, '.' == missing)


mdadm -E /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
           Name : HappyFiles:0
  Creation Time : Mon Jun  6 19:07:27 2011
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 0 sectors
          State : clean
    Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Nov 11 19:01:52 2014
       Checksum : d11417ca - correct
         Events : 1527199

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : ..A ('A' == active, '.' == missing)


cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
      3907024896 blocks super 1.1

unused devices: <none>

mdadm --assemble --scan
mdadm: No arrays found in config file or automatically

どうやらこの時点で、彼はディスクの 1 つを紛失したようです (/dev リストにもありません)。おそらく、コンピューターを移動した後にケーブルが緩んだのでしょう。私は現在、オフィスから SSH 経由でアクセスしています (ここでかなり多くの時間を費やしています)。通常、3 番目のディスクの mdadm -E /dev/sdX1 は、他の 2 つのディスクと同様の出力を出力します。

- - 編集 - -

3 番目のディスクのポートが壊れているようでしたが、別のカードに接続した後、これも mdadm -E で実行できました。

     Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
           Name : HappyFiles:0
  Creation Time : Mon Jun  6 19:07:27 2011
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 0 sectors
          State : clean
    Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri May  4 09:51:16 2012
       Checksum : 262a346f - correct
         Events : 82967

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing)

cat /proc/mdstatは次のように表示します

     # cat /proc/mdstat
Personalities : 
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
      5860537344 blocks super 1.1

unused devices: <none>

では、この RAID をオンラインに戻して、少なくともそこから可能な限り多くのデータをコピーできるまで待つにはどうすればよいでしょうか?

答え1

新規インストールを実行し、新しいコンピュータにドライブを追加したと想定します。

まず最初に以下を実行します:

 mdadm --assemble --scan

/proc/mdstatアレイがアクティブ化されているかどうかを確認します。次に、次のコマンドを実行します。

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

新しい mdadm.conf 内の設定情報を再度取得します。

答え2

きれいですね、いいですね。

非アクティブですが、それは悪いことではありません。

例えば見てみましょうここ

関連情報