Debian: RAID-Laufwerk zeigt an, dass 62 % der Festplatte bereits belegt sind, obwohl noch viel übrig ist

Debian: RAID-Laufwerk zeigt an, dass 62 % der Festplatte bereits belegt sind, obwohl noch viel übrig ist

Vor einiger Zeit habe ich RAID0 auf unserem Debian X64-Server konfiguriert und bisher funktioniert es einwandfrei, keine Probleme. Eines Tages habe ich nachgesehen df -hund es zeigt mir, dass 62 % des Speicherplatzes bereits belegt sind.

Das RAID ist mit zwei 2TB-Laufwerken konfiguriert und derzeit werden nur 20 GB verwendet, aber wenn ich die Ausgabe sehe, heißt es, die Größe betrage 34 GB. Stimmt etwas mit meinem Setup nicht?

Ausgabe von df -H:

df -H
Filesystem                                              Size  Used Avail Use% Mounted on
rootfs                                                  456G  7,3G  425G   2% /
udev                                                     11M     0   11M   0% /dev
tmpfs                                                   3,4G  300k  3,4G   1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7  456G  7,3G  425G   2% /
tmpfs                                                   5,3M     0  5,3M   0% /run/lock
tmpfs                                                    11G  4,1k   11G   1% /run/shm
/dev/sdc2                                               529M   41M  461M   9% /boot
// This last one   
 /dev/md1                                                 34G   20G   13G  62% /media/attachment

Ausgabe von mdadm --detail /dev/md1:

/dev/md1:
        Version : 1.2
  Creation Time : Wed Apr 29 11:12:21 2015
     Raid Level : raid0
     Array Size : 33553408 (32.00 GiB 34.36 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Wed Apr 29 11:12:21 2015
          State : clean 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

           Name : legion03:1  (local to host legion03)
           UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
         Events : 0

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1

Ausgabe von

fdisk -l | grep Disk

fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000

Stimmt etwas mit meinem RAID0-Setup nicht? Jede Hilfe wäre nett. Danke.

Aktualisieren

Ausgabe von fdisk -l:

fdisk -l 

Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7

   Device Boot      Start         End      Blocks   Id  System
/dev/sdc1            2048    33556480    16777216+  82  Linux swap / Solaris
/dev/sdc2        33558528    34607104      524288+  83  Linux
/dev/sdc3        34609152   937701040   451545944+  83  Linux

Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1            2048  3907029167  1953513560   fd  Linux raid autodetect

Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000

Disk /dev/md1 doesn't contain a valid partition table

Antwort1

Ihre /dev/md1Partition scheint eine Kombination aus zwei Partitionen zu sein, jede mit einer Größe von 16 GiB (oder möglicherweise unterschiedlichen Größen, die zusammen 32 GiB ergeben). Die Ausgabe von fdisk -ladded afterward widerspricht dem. Ohne eine vollständige Historie können wir nur spekulieren, was zum aktuellen Zustand von geführt hat /dev/md1, aber eine Möglichkeit ist, dass sich die Partitionstabellen geändert haben, nachdem das RAID-Gerät erstellt wurde (ich habe nicht getestet, ob diese Abfolge von Ereignissen zu diesem Zustand führen kann).

Um nur die Partitionstabellen dieser beiden Festplatten zu melden, verwenden Sie einen Befehl wie diesen:

fdisk -l /dev/sd[ab]

Wenn Sie die 20 GB an Daten in dieser Partition behalten möchten, müssen Sie sie vor der Neuerstellung an einen anderen Ort kopieren /dev/md1.

Die aktuellen Partitionstabellen auf /dev/sdaund /dev/sdbsind für eine RAID-Partitionierung auf diesen Festplatten geeignet. Ich habe meinen früheren Kommentar dazu, wie (und ob) diese Festplatten partitioniert werden sollen, herausgeschnitten.

Zum Zerlegen und Wiederherstellen /dev/md1können Sie diese Befehlsfolge verwenden:

mdadm --stop /dev/md1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[ab]1

Ich glaube, dass der erste Befehl nicht destruktiv ist, aber Sie sollten die vorhandenen Daten sichern, /dev/md1bevor Sie den zweiten Befehl ausführen (und eigentlich bevor Sie den ersten ausführen). Ich glaube, mdadm --assembleSie könnten damit die Wirkung des ersten Befehls rückgängig machen, aber das ist unnötig, sobald Ihre Daten gesichert sind.

Ich habe diese Befehlsfolge nicht getestet (jedenfalls nicht vor Kurzem), aber sie stimmt mit meiner Erinnerung und meiner Lektüre der Dokumentation überein. Achten Sie darauf, die Gerätenamen richtig einzugeben. Es wird interessant sein herauszufinden, ob mdadm --createbeim Erstellen des RAID-Spiegels die volle Partitionsgröße der beiden Komponentenfestplatten verwendet wird. Ihr Kommentar gab an, dass Sie einen RAID-Spiegel möchten; der Parameterwert für --levelwäre anders, wenn Sie etwas anderes wollten.

Möglicherweise möchten Sie auch den Inhalt von überprüfen, /etc/mdadm.confum /etc/mdadm/mdadm.confsicherzustellen, dass keine unerwünschten Standardwerte angegeben werden.

verwandte Informationen