%20%E3%81%AB%E5%A4%89%E6%9B%B4%E3%81%99%E3%82%8B%E6%96%B9%E6%B3%95.png)
私は、DATARAID と呼ばれる ZFS RAID1 で稼動する VM を搭載した proxmox (6.1) を使用するサーバーを持っています。そこで使用する新しいハードディスクがあり、RAID1 よりも高速な RAIDZ-1 に拡張したいと考えています (https://calomel.org/zfs_raid_speed_capacity.html、https://icesquare.com/wordpress/zfs-performance-mirror-vs-raidz-vs-raidz2-vs-raidz3-vs-striped/...)、そして、ZFS にはこの「asis」サポートがないことはわかっていますが、どうすれば移動できるのでしょうか?
lsblk は次のように言います (sdb と sdc は ZFS RAID1 です):
root@HV02:~# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 465.8G 0 disk
├─sda1 8:1 0 1M 0 part
├─sda2 8:2 0 256M 0 part /boot/efi
└─sda3 8:3 0 465.5G 0 part
├─pve-root 253:0 0 96G 0 lvm /
└─pve-data 253:1 0 369.5G 0 lvm /var/lib/vz
sdb 8:16 0 931.5G 0 disk
├─sdb1 8:17 0 931.5G 0 part
└─sdb9 8:25 0 8M 0 part
sdc 8:32 0 931.5G 0 disk
├─sdc1 8:33 0 931.5G 0 part
└─sdc9 8:41 0 8M 0 part
zd0 230:0 0 32G 0 disk
├─zd0p1 230:1 0 153M 0 part
├─zd0p2 230:2 0 2G 0 part
└─zd0p3 230:3 0 29.9G 0 part
zd16 230:16 0 128K 0 disk
zd32 230:32 0 128K 0 disk
zd48 230:48 0 1M 0 disk
zd64 230:64 0 60G 0 disk
├─zd64p1 230:65 0 300M 0 part
├─zd64p2 230:66 0 99M 0 part
├─zd64p3 230:67 0 128M 0 part
└─zd64p4 230:68 0 59.5G 0 part
zd80 230:80 0 20G 0 disk
├─zd80p1 230:81 0 512M 0 part
└─zd80p2 230:82 0 19.5G 0 part
zd96 230:96 0 128K 0 disk
zd112 230:112 0 128K 0 disk
zd128 230:128 0 40G 0 disk
├─zd128p1 230:129 0 300M 0 part
├─zd128p2 230:130 0 99M 0 part
├─zd128p3 230:131 0 128M 0 part
└─zd128p4 230:132 0 39.5G 0 part
zd144 230:144 0 100G 0 disk
├─zd144p1 230:145 0 128M 0 part
└─zd144p2 230:146 0 99.9G 0 part
zd160 230:160 0 32G 0 disk
├─zd160p1 230:161 0 200M 0 part
├─zd160p2 230:162 0 512K 0 part
└─zd160p3 230:163 0 31G 0 part
zd176 230:176 0 100G 0 disk
zd192 230:192 0 24G 0 disk
zd208 230:208 0 1M 0 disk
zram0 252:0 0 3G 0 disk [SWAP]
zfs リストには次のように書かれています:
root@HV02:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
DATARAID 421G 478G 96K /DATARAID
DATARAID/vm-191-disk-0 20.6G 487G 11.2G -
DATARAID/vm-191-disk-1 2.12M 478G 188K -
DATARAID/vm-196-disk-0 33.0G 499G 11.9G -
DATARAID/vm-196-disk-1 2.12M 478G 188K -
DATARAID/vm-196-disk-2 103G 555G 25.9G -
DATARAID/vm-197-disk-0 33.0G 505G 5.86G -
DATARAID/vm-197-disk-1 3M 478G 192K -
DATARAID/vm-198-disk-0 24.8G 502G 1.06G -
DATARAID/vm-198-disk-1 3M 478G 192K -
DATARAID/vm-291-disk-0 61.9G 488G 52.1G -
DATARAID/vm-291-disk-1 103G 536G 44.8G -
DATARAID/vm-291-disk-2 2.12M 478G 188K -
DATARAID/vm-292-disk-0 41.3G 494G 25.6G -
DATARAID/vm-292-disk-1 2.12M 478G 188K -
まだ新しいディスクを追加していませんが、空の1TBディスクです
そして、構成を一切失わずに移動する必要があります...
zpool ステータスで編集:
root@HV02:~# zpool status
pool: DATARAID
state: ONLINE
scan: scrub repaired 0B in 0 days 00:51:17 with 0 errors on Sun Jan 12 01:15:19 2020
config:
NAME STATE READ WRITE CKSUM
DATARAID ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
wwn-0x5000c500b2de566e ONLINE 0 0 0
sdc ONLINE 0 0 0
errors: No known data errors
答え1
まず第一に、あなたの投稿は重要なzpool status
アウトプットを欠いています。第二に、一般的なアプローチは、zpool split
またはzpool deatch
十分ですvdevs新しいものを作るレイズ、オンラインで移行してからサイズを変更します。
zpool status
質問に が欠落しているため、これが得られる最も正確な回答です。
PS はい、zfs send/receive
シーケンスは使用できますが、これは完全にオフラインなので、基本的には使用しないでください。