So ändern Sie ZFS RAID 1 in RAIDZ-1 (Proxmox)

So ändern Sie ZFS RAID 1 in RAIDZ-1 (Proxmox)

Ich habe einen Server mit Proxmox (6.1) und einer VM in einem ZFS RAID1 namens DATARAID. Ich habe dort eine neue Festplatte und möchte sie auf RAIDZ-1 erweitern, das schneller zu sein scheint als RAID1 (https://calomel.org/zfs_raid_speed_capacity.html,https://icesquare.com/wordpress/zfs-performance-mirror-vs-raidz-vs-raidz2-vs-raidz3-vs-striped/...), und ich weiß, dass ZFS diese Unterstützung „nicht grundsätzlich“ hat, aber ... wie kann ich es verschieben?

lsblk sagt (sdb und sdc sind das ZFS RAID1):

root@HV02:~# lsblk
NAME         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda            8:0    0 465.8G  0 disk
├─sda1         8:1    0     1M  0 part
├─sda2         8:2    0   256M  0 part /boot/efi
└─sda3         8:3    0 465.5G  0 part
  ├─pve-root 253:0    0    96G  0 lvm  /
  └─pve-data 253:1    0 369.5G  0 lvm  /var/lib/vz
sdb            8:16   0 931.5G  0 disk
├─sdb1         8:17   0 931.5G  0 part
└─sdb9         8:25   0     8M  0 part
sdc            8:32   0 931.5G  0 disk
├─sdc1         8:33   0 931.5G  0 part
└─sdc9         8:41   0     8M  0 part
zd0          230:0    0    32G  0 disk
├─zd0p1      230:1    0   153M  0 part
├─zd0p2      230:2    0     2G  0 part
└─zd0p3      230:3    0  29.9G  0 part
zd16         230:16   0   128K  0 disk
zd32         230:32   0   128K  0 disk
zd48         230:48   0     1M  0 disk
zd64         230:64   0    60G  0 disk
├─zd64p1     230:65   0   300M  0 part
├─zd64p2     230:66   0    99M  0 part
├─zd64p3     230:67   0   128M  0 part
└─zd64p4     230:68   0  59.5G  0 part
zd80         230:80   0    20G  0 disk
├─zd80p1     230:81   0   512M  0 part
└─zd80p2     230:82   0  19.5G  0 part
zd96         230:96   0   128K  0 disk
zd112        230:112  0   128K  0 disk
zd128        230:128  0    40G  0 disk
├─zd128p1    230:129  0   300M  0 part
├─zd128p2    230:130  0    99M  0 part
├─zd128p3    230:131  0   128M  0 part
└─zd128p4    230:132  0  39.5G  0 part
zd144        230:144  0   100G  0 disk
├─zd144p1    230:145  0   128M  0 part
└─zd144p2    230:146  0  99.9G  0 part
zd160        230:160  0    32G  0 disk
├─zd160p1    230:161  0   200M  0 part
├─zd160p2    230:162  0   512K  0 part
└─zd160p3    230:163  0    31G  0 part
zd176        230:176  0   100G  0 disk
zd192        230:192  0    24G  0 disk
zd208        230:208  0     1M  0 disk
zram0        252:0    0     3G  0 disk [SWAP]

zfs-Liste sagt:

root@HV02:~# zfs list
NAME                     USED  AVAIL     REFER  MOUNTPOINT
DATARAID                 421G   478G       96K  /DATARAID
DATARAID/vm-191-disk-0  20.6G   487G     11.2G  -
DATARAID/vm-191-disk-1  2.12M   478G      188K  -
DATARAID/vm-196-disk-0  33.0G   499G     11.9G  -
DATARAID/vm-196-disk-1  2.12M   478G      188K  -
DATARAID/vm-196-disk-2   103G   555G     25.9G  -
DATARAID/vm-197-disk-0  33.0G   505G     5.86G  -
DATARAID/vm-197-disk-1     3M   478G      192K  -
DATARAID/vm-198-disk-0  24.8G   502G     1.06G  -
DATARAID/vm-198-disk-1     3M   478G      192K  -
DATARAID/vm-291-disk-0  61.9G   488G     52.1G  -
DATARAID/vm-291-disk-1   103G   536G     44.8G  -
DATARAID/vm-291-disk-2  2.12M   478G      188K  -
DATARAID/vm-292-disk-0  41.3G   494G     25.6G  -
DATARAID/vm-292-disk-1  2.12M   478G      188K  -

Ich habe die neue Festplatte noch nicht hinzugefügt, aber es ist eine leere 1-TB-Festplatte

Und ich muss umziehen, ohne dass die Konfiguration verloren geht …

Bearbeiten mit Zpool-Status:

root@HV02:~# zpool status
  pool: DATARAID
 state: ONLINE
  scan: scrub repaired 0B in 0 days 00:51:17 with 0 errors on Sun Jan 12 01:15:19 2020
config:

        NAME                        STATE     READ WRITE CKSUM
        DATARAID                    ONLINE       0     0     0
          mirror-0                  ONLINE       0     0     0
            wwn-0x5000c500b2de566e  ONLINE       0     0     0
            sdc                     ONLINE       0     0     0

errors: No known data errors

Antwort1

Erstens verfehlt Ihr Beitrag die entscheidende zpool statusAusgabe. Zweitens besteht der allgemeine Ansatz darin, zpool splitoder zpool deatchgenugvdevszur Schaffung des neuenraidz, migrieren Sie es dann online und ändern Sie die Größe.

Da das zpool statusin der Frage fehlt, ist dies die präziseste Antwort, die Sie erhalten können.

PS: Ja, Sie können Sequence verwenden zfs send/receive, aber das ist rein offline, also grundsätzlich – nein, das sollten Sie nicht.

verwandte Informationen