Wie komme ich mit der 16-TiB-Begrenzung bei Linux-Software-RAID (md) zurecht?

Wie komme ich mit der 16-TiB-Begrenzung bei Linux-Software-RAID (md) zurecht?

Ich verwende seit etwa 10 Jahren ein RAID6, das auf Partitionen auf 2TB-Festplatten basiert. Dieses habe ich durch mehrmaliges Hinzufügen von Festplatten mehrmals auf etwa 12TB erweitert.

Mit der Zeit habe ich nach und nach meine defekten Festplatten durch 4TB-Festplatten ersetzt, um es auf 3,5-TiB-Partitionen zu erweitern und dann die überzähligen Festplatten zu entfernen (es wäre sooo schön, dieses Computergehäuse irgendwann schließen zu können ;-p XD)

Es scheint jedoch eine Beschränkung auf 16 TiB für md-RAIDs zu geben. Als ich versuchte, es auf --size=max zu vergrößern, meldeten mdadm und /proc/mdstat, dass meine Einheiten auf 3663892,5 MiB und mein gesamter RAID-Speicherplatz auf 21983355 MiB angewachsen seien. Beim Versuch, von der Festplatte zu lesen, konnte ich jedoch nur auf 5206139 MiB = 21983355 MiB - 16 TiB zugreifen (hier habe ich versucht, das letzte und das nächste MiB zu lesen, und ich kann nur #5206138 lesen).

root@nas:~# dd if=/dev/md0 bs=1M skip=5206138 of=/dev/null count=2 
1+0 records in
1+0 records out
1048576 bytes (1,0 MB) copied, 0.00472265 s, 222 MB/s

Die Suche nach Informationen zu dieser Grenze hat nicht viele Ergebnisse ergeben. Wissen Sie mehr darüber, wie man dieses Problem löst?

EDIT: Bei diesem Problem geht es NICHT um die Dateisystemgröße, sondern um den bloßen, unpartitionierten RAID-Speicherplatz (und übrigens, meine RAID-Version ist 1.2)

EDIT2: Ich frage mich, ob das Problem vielleicht damit zusammenhängt, dass ich immer noch einen alten 32-Bit-Kernel verwende.

Antwort1

OK. Es scheint, dass das Problem daher rührt, dass mein Server immer noch eine alte Distribution mit einem 32-Bit-Kernel verwendet. Das Booten von einem aktuelleren Betriebssystem hat das Problem gelöst.

nas ~ # cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] 
md0 : active raid6 sdf40[9] sdc48[8](S) sdb42[14] sdd46[15] sda41[10] sdi45[13] sde43[12] sdh47[16] sdg44[11]
      22510955520 blocks super 1.2 level 6, 512k chunk, algorithm 2 [8/8] [UUUUUUUU]
      [===========>.........]  resync = 57.2% (2146318848/3751825920) finish=441.6min speed=60584K/sec
      bitmap: 7/14 pages [28KB], 131072KB chunk

unused devices: <none>

nas ~ # dd if=/dev/md0 bs=1K skip=22510955519 of=/dev/null count=2
1+0 records in
1+0 records out
1024 bytes (1.0 kB, 1.0 KiB) copied, 0.0198348 s, 51.6 kB/s

verwandte Informationen