
heute hatte ich Probleme beim Zugriff auf die SMB-Freigabe auf meiner Linkstation. Mein NAS hat zwei Festplatten, die als raid0 konfiguriert sind. Dieses Raid wurde in /mnt/array1/intern gemountet – dem Ordner, den ich vermisse.
Mein erstes Problem ist, dass ich wirklich nicht weiß, wo ich nach Fehlerberichten suchen soll.
Beginnen wir mit /var/log/messages. Dort steht:
/usr/local/bin/hdd_check_normal.sh: mount -t xfs /dev/md2 /mnt/array1 failed.
Ok. Ich habe diese Nachricht gegoogelt und Folgendes versucht:
cat /proc/mdstat
md2 : inactive sda6[1](S)
1938311476 blocks super 1.2
md1 : active raid1 sda2[1]
4999156 blocks super 1.2 [2/1] [_U]
md10 : active raid1 sda5[1]
1000436 blocks super 1.2 [2/1] [_U]
md0 : active raid1 sda1[1]
1000384 blocks [2/1] [_U]
unused devices: <none>
OK... von df -hi weiß ich, dass md0 meine Boot-Partition und md1 die Root-Partition ist. Ich vermute, dass md2 mein fehlendes Raid ist – aber wofür ist raid10? Ich habe jedoch versucht, die Konfiguration von mdadm zu aktualisieren und die Raids mit folgendem neu zusammenzusetzen:
mdadm --examine --scan > /etc/mdadm.conf
mdadm --assemble --scan -v
Dies führt zu einigen Fehlermeldungen, wie:
cannot open device /dev/md/1: Device or resource busy
mdadm: /dev/sda2 has wrong uuid.
mdadm: no RAID superblock on /dev/mtdblock0
für sda, sda1, sda2, md/1, md/2 und so weiter. Es sind ungefähr 50 Zeilen, ich möchte sie nicht alle posten. Was ich nicht verstehe, ist „falsche UUID“ – habe ich nicht vor Kurzem die aktuellen UUIDs zu mdadm.conf hinzugefügt?
Zurück zu meinen /var/log/messages. Ich habe ein Skript gefunden. Ich habe versucht, es manuell zu starten, in der Hoffnung, weitere Fehlermeldungen zu erhalten:
/etc/init.d/start_data_array.sh
Es werden mir eine ganze Reihe von Meldungen angezeigt, die wichtigsten sind meiner Meinung nach:
mount: mounting /dev/md2 on /mnt/array1 failed: Input/output error
umount: forced umount of /mnt/array1 failed!
umount: cannot umount /mnt/array1: Invalid argument
Also, soweit ich weiß, ist mein Problem, dass mit meinem Raid0-Array namens md2 etwas nicht stimmt.
Die Hauptfrage ist: Was ist falsch? Wie aktiviere ich /dev/md2? (mdadm --detail /dev/md2 gibt „Gerät ist nicht aktiv?“ aus.) Muss ich das Array manuell neu erstellen? Verliere ich meine Daten?
Der Fehler, dass dieses Gerät nicht aktiv ist, scheint mir eher allgemein zu sein. Beim Nachschlagen finde ich viele Beiträge und Ratschläge, die nicht wirklich etwas mit meinem Problem zu tun haben.
Jede Hilfe ist willkommen, vielen Dank!
// AKTUALISIEREN
Es wird seltsam – für mich. Das sagt fdisk -l für /sda und /sda6:
root@OoompaLoompa:~# fdisk -l /dev/sda
Disk /dev/sda: 2000.3 GB, 2000398934016 bytes
255 heads, 63 sectors/track, 243201 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sda1 1 243202 1953514583+ ee EFI GPT
Disk /dev/sda6: 1984.8 GB, 1984832000000 bytes
255 heads, 63 sectors/track, 241308 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Disk /dev/sda6 doesn't contain a valid partition table
/sda6 hat keine Partitionstabelle, weil es Teil meines Arrays ist, schätze ich. /sda hat eine Partitionstabelle, aber keinen Superblock:
mdadm --examine /dev/sda
mdadm: No md superblock detected on /dev/sda
Aber es ist eine der 2 GB-Festplatten. Ich bin wirklich verwirrt. Dies ist die Ausgabe von --examine für beide dieser Geräte:
/dev/sda1:
mdadm: No md superblock detected on /dev/sda.
/dev/sda6:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x0
Array UUID : 41e67f06:3b93cda0:46ac3bd7:96702dae
Name : UNINSPECT-EMC36:2
Creation Time : Thu Oct 18 01:43:39 2012
Raid Level : raid0
Raid Devices : 2
Avail Dev Size : 3876622952 (1848.52 GiB 1984.83 GB)
Used Dev Size : 0
Data Offset : 2048 sectors
Super Offset : 8 sectors
State : clean
Device UUID : 1dd1c5c5:220d14bf:5b0b1fc5:dbcc3f9c
Update Time : Thu Oct 18 01:43:39 2012
Checksum : 5d34dcac - correct
Events : 0
Chunk Size : 512K
Device Role : Active device 1
Array State : AA ('A' == active, '.' == missing)
Ich bin immer noch etwas verwirrt. Sollte /sda die Bootpartition sein? Ich schätze, die Lösung besteht darin, den Superblock irgendwie neu zu erstellen und dann /md2 neu zusammenzusetzen.
Trotzdem wird jede Hilfe sehr geschätzt :)
Antwort1
Sie haben zwei Laufwerke in einem RAID0-Stripe verbunden. Ein Laufwerk /dev/sda und die RAID-Partition /dev/sda6 sehen in Ordnung aus. Was ist mit dem zweiten Laufwerk passiert? Ich vermute, das zweite Laufwerk ist beschädigt. Wird es angezeigt, wenn Sie ... fdisk -l ausführen?