
Vor einiger Zeit habe ich RAID0 auf unserem Debian X64-Server konfiguriert und bisher funktioniert es einwandfrei, keine Probleme. Eines Tages habe ich nachgesehen df -h
und es zeigt mir, dass 62 % des Speicherplatzes bereits belegt sind.
Das RAID ist mit zwei 2TB-Laufwerken konfiguriert und derzeit werden nur 20 GB verwendet, aber wenn ich die Ausgabe sehe, heißt es, die Größe betrage 34 GB. Stimmt etwas mit meinem Setup nicht?
Ausgabe von df -H:
df -H
Filesystem Size Used Avail Use% Mounted on
rootfs 456G 7,3G 425G 2% /
udev 11M 0 11M 0% /dev
tmpfs 3,4G 300k 3,4G 1% /run
/dev/disk/by-uuid/ae73679c-c3cd-4a60-bcbb-5b6ddce867f7 456G 7,3G 425G 2% /
tmpfs 5,3M 0 5,3M 0% /run/lock
tmpfs 11G 4,1k 11G 1% /run/shm
/dev/sdc2 529M 41M 461M 9% /boot
// This last one
/dev/md1 34G 20G 13G 62% /media/attachment
Ausgabe von mdadm --detail /dev/md1:
/dev/md1:
Version : 1.2
Creation Time : Wed Apr 29 11:12:21 2015
Raid Level : raid0
Array Size : 33553408 (32.00 GiB 34.36 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Wed Apr 29 11:12:21 2015
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Name : legion03:1 (local to host legion03)
UUID : 68e853a6:7af46176:d9c147c7:6ff87bb0
Events : 0
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 17 1 active sync /dev/sdb1
Ausgabe von
fdisk -l | grep Disk
fdisk -l | grep Disk
Disk /dev/md1 doesn't contain a valid partition table
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00089ca4
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
Disk identifier: 0x00047ef7
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x000275d2
Disk /dev/md1: 34.4 GB, 34358689792 bytes
Disk identifier: 0x00000000
Stimmt etwas mit meinem RAID0-Setup nicht? Jede Hilfe wäre nett. Danke.
Aktualisieren
Ausgabe von fdisk -l:
fdisk -l
Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00089ca4
Device Boot Start End Blocks Id System
/dev/sdb1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/sdc: 480.1 GB, 480103981056 bytes
255 heads, 63 sectors/track, 58369 cylinders, total 937703088 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x00047ef7
Device Boot Start End Blocks Id System
/dev/sdc1 2048 33556480 16777216+ 82 Linux swap / Solaris
/dev/sdc2 33558528 34607104 524288+ 83 Linux
/dev/sdc3 34609152 937701040 451545944+ 83 Linux
Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
81 heads, 63 sectors/track, 765633 cylinders, total 3907029168 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x000275d2
Device Boot Start End Blocks Id System
/dev/sda1 2048 3907029167 1953513560 fd Linux raid autodetect
Disk /dev/md1: 34.4 GB, 34358689792 bytes
2 heads, 4 sectors/track, 8388352 cylinders, total 67106816 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 524288 bytes / 1048576 bytes
Disk identifier: 0x00000000
Disk /dev/md1 doesn't contain a valid partition table
Antwort1
Ihre /dev/md1
Partition scheint eine Kombination aus zwei Partitionen zu sein, jede mit einer Größe von 16 GiB (oder möglicherweise unterschiedlichen Größen, die zusammen 32 GiB ergeben). Die Ausgabe von fdisk -l
added afterward widerspricht dem. Ohne eine vollständige Historie können wir nur spekulieren, was zum aktuellen Zustand von geführt hat /dev/md1
, aber eine Möglichkeit ist, dass sich die Partitionstabellen geändert haben, nachdem das RAID-Gerät erstellt wurde (ich habe nicht getestet, ob diese Abfolge von Ereignissen zu diesem Zustand führen kann).
Um nur die Partitionstabellen dieser beiden Festplatten zu melden, verwenden Sie einen Befehl wie diesen:
fdisk -l /dev/sd[ab]
Wenn Sie die 20 GB an Daten in dieser Partition behalten möchten, müssen Sie sie vor der Neuerstellung an einen anderen Ort kopieren /dev/md1
.
Die aktuellen Partitionstabellen auf /dev/sda
und /dev/sdb
sind für eine RAID-Partitionierung auf diesen Festplatten geeignet. Ich habe meinen früheren Kommentar dazu, wie (und ob) diese Festplatten partitioniert werden sollen, herausgeschnitten.
Zum Zerlegen und Wiederherstellen /dev/md1
können Sie diese Befehlsfolge verwenden:
mdadm --stop /dev/md1
mdadm --create /dev/md1 --level=1 --raid-devices=2 /dev/sd[ab]1
Ich glaube, dass der erste Befehl nicht destruktiv ist, aber Sie sollten die vorhandenen Daten sichern, /dev/md1
bevor Sie den zweiten Befehl ausführen (und eigentlich bevor Sie den ersten ausführen). Ich glaube, mdadm --assemble
Sie könnten damit die Wirkung des ersten Befehls rückgängig machen, aber das ist unnötig, sobald Ihre Daten gesichert sind.
Ich habe diese Befehlsfolge nicht getestet (jedenfalls nicht vor Kurzem), aber sie stimmt mit meiner Erinnerung und meiner Lektüre der Dokumentation überein. Achten Sie darauf, die Gerätenamen richtig einzugeben. Es wird interessant sein herauszufinden, ob mdadm --create
beim Erstellen des RAID-Spiegels die volle Partitionsgröße der beiden Komponentenfestplatten verwendet wird. Ihr Kommentar gab an, dass Sie einen RAID-Spiegel möchten; der Parameterwert für --level
wäre anders, wenn Sie etwas anderes wollten.
Möglicherweise möchten Sie auch den Inhalt von überprüfen, /etc/mdadm.conf
um /etc/mdadm/mdadm.conf
sicherzustellen, dass keine unerwünschten Standardwerte angegeben werden.