Ich hatte in der Cockpit-Benutzeroberfläche ein RAID 6-Setup mit mehreren Partitionen. Es gab insbesondere eine Partition, die ich mit dem verfügbaren Speicherplatz von 10 TB auf 11 TB erweitern wollte, und versuchte dies auf /dev/md127p6 mit „growpart /dev/md127p6 1“. Anschließend bemerkte ich, dass ich unter diesem Array auf einige der Einhängepunkte im System zugreifen konnte (eigentlich zwei).
Ab diesem Zeitpunkt habe ich beschlossen, neu zu starten (habe /proc/mdstat überprüft, aber es hat nichts passiert). Als der Server wieder hochgefahren war, waren alle Partitionen für diesen Raid weg.
Als der Server wieder online war, bemerkte ich, dass die Größe des Raids anders war (von 189 TiB auf 143 TiB). Offensichtlich habe ich etwas vermasselt, aber ich frage mich, ob jemand eine Idee hat, bevor ich von vorne anfange.
mdadm --detail /dev/md127 /dev/md127: Version: 1.2 Erstellungszeit: Montag, 17. Mai 2021, 20:04:04 Raid-Level: raid6 Array-Größe: 153545080832 (146432,00 GiB 157230,16 GB) Verwendete Dev-Größe: 11811160064 (11264,00 GiB 12094,63 GB) Raid-Geräte: 15 Gesamtgeräte: 15 Persistenz: Superblock ist persistent
Intent Bitmap : Internal Update Time : Mon Aug 2 20:05:13 2021 State : clean Active Devices : 15 Working Devices : 15 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 4K
Konsistenzrichtlinie: Bitmap
Name : storback:backups UUID : c8d289dd:2cb2ded3:cbcff4cd:1e7367ee Events : 150328 Number Major Minor RaidDevice State 0 8 32 0 active sync /dev/sdc 1 8 48 1 active sync /dev/sdd 2 8 64 2 active sync /dev/sde 3 8 80 3 active sync /dev/sdf 4 8 96 4 active sync /dev/sdg 5 8 112 5 active sync /dev/sdh 6 8 128 6 active sync /dev/sdi 7 8 144 7 active sync /dev/sdj 8 8 160 8 active sync /dev/sdk 9 8 192 9 active sync /dev/sdm 10 8 176 10 active sync /dev/sdl 11 8 208 11 active sync /dev/sdn 12 8 224 12 active sync /dev/sdo 13 8 240 13 active sync /dev/sdp 14 65 0 14 active sync /dev/sdq
Antwort1
Da es sich nicht um ein besonders wichtiges Gerät handelte, habe ich versucht, es auf gut Glück zu versuchen und das RAID auf die maximale Größe zu bringen, da die Gesamtgröße falsch war. Es schien fast so, als ob die RAID-Größe um die Menge an freiem, unpartitioniertem Speicherplatz geschrumpft wäre, die ich vorher hatte.
Ich habe diesen Befehl ausgeführt und alle Partitionen waren nach einem Neustart wiederhergestellt:
mdadm --grow /dev/md127 -z max