Raid 5 startet nicht

Raid 5 startet nicht

Ich hatte ein Raid 5 mit 3 Festplatten in meinem alten Computer, aber das Motherboard ist kaputt. Ich habe alle Festplatten in einen neuen Computer eingebaut, aber das Raid will nicht mehr gestartet werden. Beim Booten des PCs kann ich alle Festplatten sehen und mdadm -E /dev/sd [bcd]1 sagt mir, dass alle drei Festplatten sauber sind. Cat /proc/mdstat sagt /dev/md0: inaktiv sdc13 sdd11 sdb10 Ich verwende Fedora 15 auf dieser Box. Ich bin für jeden Tipp dankbar, um dieses Raid zu starten!

--Bearbeitet-- In der Zwischenzeit habe ich das Betriebssystem neu installiert (auf einer neuen, separaten Festplatte, das Betriebssystem war nie Teil des RAID) und CentOS 7 verwendet.

Die Ausgaben:

mdadm -E /dev/sda1                                                                                                           
/dev/sda1:                                                                                                                                        
          Magic : a92b4efc                                                                                                                        
        Version : 1.1                                                                                                                             
    Feature Map : 0x1                                                                                                                             
     Array UUID : aa1739a9:abf29975:85909ad4:7ce90400                                                                                             
           Name : HappyFiles:0
  Creation Time : Mon Jun  6 19:07:27 2011
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 0 sectors
          State : clean
    Device UUID : 822d3a00:cf68046c:45de1427:d65beb68

Internal Bitmap : 8 sectors from superblock
    Update Time : Mon Nov 10 22:19:29 2014
       Checksum : 195e3a86 - correct
         Events : 1527192

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 1
   Array State : .AA ('A' == active, '.' == missing)


mdadm -E /dev/sdb1
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
           Name : HappyFiles:0
  Creation Time : Mon Jun  6 19:07:27 2011
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 0 sectors
          State : clean
    Device UUID : 7546d111:71f87ce2:8b5e9cfb:05ed0bc4

Internal Bitmap : 8 sectors from superblock
    Update Time : Tue Nov 11 19:01:52 2014
       Checksum : d11417ca - correct
         Events : 1527199

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 2
   Array State : ..A ('A' == active, '.' == missing)


cat /proc/mdstat
Personalities :
md127 : inactive sdb1[3](S) sda1[1](S)
      3907024896 blocks super 1.1

unused devices: <none>

mdadm --assemble --scan
mdadm: No arrays found in config file or automatically

Offenbar hat er in diesem Moment eine seiner Festplatten verloren (auch nicht in der /dev-Liste), wahrscheinlich hat sich beim Verschieben des Computers ein Kabel gelöst. Ich greife gerade per SSH vom Büro aus darauf zu (wo ich viiiiiel zu viel Zeit verbringe). Normalerweise gibt mdadm -E /dev/sdX1 der dritten Festplatte eine ähnliche Ausgabe wie bei den anderen beiden Festplatten.

----BEARBEITEN----

Der Port der dritten Festplatte schien defekt zu sein; nachdem ich sie an eine andere Karte angeschlossen hatte, gelange ich auch hier zu mdadm -E!

     Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : aa1739a9:abf29975:85909ad4:7ce90400
           Name : HappyFiles:0
  Creation Time : Mon Jun  6 19:07:27 2011
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 3907024896 (1863.01 GiB 2000.40 GB)
     Array Size : 3907023872 (3726.03 GiB 4000.79 GB)
  Used Dev Size : 3907023872 (1863.01 GiB 2000.40 GB)
    Data Offset : 2048 sectors
   Super Offset : 0 sectors
          State : clean
    Device UUID : 3c5c8512:49ba8111:bd936c82:00cb6b67

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri May  4 09:51:16 2012
       Checksum : 262a346f - correct
         Events : 82967

         Layout : left-symmetric
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing)

cat /proc/mdstat sagt jetzt

     # cat /proc/mdstat
Personalities : 
md127 : inactive sdc1[3](S) sdb1[1](S) sda1[0](S)
      5860537344 blocks super 1.1

unused devices: <none>

Also, wie bekomme ich diesen Raid jetzt wieder online, zumindest lange genug, um so viele Daten wie möglich davon zu kopieren?

Antwort1

Ich gehe davon aus, dass Sie eine Neuinstallation durchgeführt und die Laufwerke zum neuen Computer hinzugefügt haben.

Führen Sie zunächst Folgendes durch:

 mdadm --assemble --scan

und prüfen Sie /proc/mdstat, ob das Array aktiviert wurde. Führen Sie dann Folgendes aus:

mdadm --examine --scan >> /etc/mdadm/mdadm.conf

um die Konfigurationsinformationen erneut in Ihre neue mdadm.conf zu erhalten.

Antwort2

Es ist sauber, das ist gut.

Es ist inaktiv, das ist nicht schlimm.

Schauen Sie sich beispielsweise anHier

verwandte Informationen