既存のzpoolにデータストアから割り当てられたディスクzpoolを増やしてファイルシステムを増やす方法

既存のzpoolにデータストアから割り当てられたディスクzpoolを増やしてファイルシステムを増やす方法

最初のディスク c1t0d0 は、ルート ファイル システムである syspool にあります。このディスクは、esx ホストのデータストアからのものです。syspool ディスク c1t0d0 のこの Solaris VM サーバーの既存のディスクを増やす場合、オンラインで zpool を増やしてルート ファイル システムを増やすにはどうすればよいですか。c1t0d0 にスライス s0 が作成されましたが、ここで使用する必要がある zpool および zfs コマンドはどれですか。

root@server:/var/fm/fmd# echo |format |more
Searching for disks...done


AVAILABLE DISK SELECTIONS:
       0. c1t0d0 <DEFAULT cyl 4093 alt 2 hd 128 sec 32>
          /pci@0,0/pci15ad,1976@10/sd@0,0
       1. c1t1d0 <VMware-Virtual disk-1.0-500.00GB>
          /pci@0,0/pci15ad,1976@10/sd@1,0
       2. c3t0d0 <VMware-Virtual disk-1.0-1.00TB>
          /pci@0,0/pci15ad,790@11/pci15ad,1976@2/sd@0,0
Specify disk (enter its number): Specify disk (enter its number):
root@server:/var/fm/fmd#


  pool: syspool
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        syspool     ONLINE       0     0     0
          c1t0d0s0  ONLINE       0     0     0

errors: No known data errors
root@server:/var/fm/fmd#


  pool: syspool
 state: ONLINE
 scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        syspool     ONLINE       0     0     0
          c1t0d0s0  ONLINE       0     0     0

errors: No known data errors
root@server:/var/fm/fmd#

root@server:/var/fm/fmd# df -h
Filesystem             size   used  avail capacity  Mounted on
syspool/rootfs-nmu-000
                       7.8G   1.9G   1.7G    53%    /
/devices                 0K     0K     0K     0%    /devices
/dev                     0K     0K     0K     0%    /dev
ctfs                     0K     0K     0K     0%    /system/contract
proc                     0K     0K     0K     0%    /proc
mnttab                   0K     0K     0K     0%    /etc/mnttab
swap                   1.2G   280K   1.2G     1%    /etc/svc/volatile
objfs                    0K     0K     0K     0%    /system/object
sharefs                  0K     0K     0K     0%    /etc/dfs/sharetab
/usr/lib/libc/libc_hwcap1.so.1
                       3.5G   1.9G   1.7G    53%    /lib/libc.so.1
fd                       0K     0K     0K     0%    /dev/fd
swap                   1.2G    40K   1.2G     1%    /tmp
swap                   1.2G    88K   1.2G     1%    /var/run
cterapool              1.5T   491M   152G     1%    /cterapool
syspool                7.8G    35K   1.7G     1%    /tmp/syspool
cterapool/cterafs      1.5T   1.2T   152G    90%    /usr/local/lib/ctera
cterapool/workfs       1.5T   105M   152G     1%    /usr/local/lib/cterawork
root@server:/var/fm/fmd#

答え1

プールにディスクを追加するだけです。いくつかの条件に依存するため、その方法については説明できません。

クォータが設定されていない限り、ルート ファイル システム/データセットは新しいスペースを自動的に使用できるはずです。

答え2

私が見たところ、ルートプールが最初のSolarisスライスにあることから、Solaris 10がインストールされているようです。したがって、提供されている仮想ディスクのサイズを増やすだけでは不十分で、Solarisスライスのサイズも変更する必要があります(以下で明示的に述べたいと思います)。「Solaris スライス」私はタイプの区分について言及していますソラリス(Solaris パーティションには適用されません)。

私の観点からすると、簡単な方法は、Solaris VM に新しいディスク (より大きなディスク) を用意し、それに応じてラベルを付け (ディスクの大部分に同様の Solaris パーティションを作成)、ローダーを配置し (Solaris 10 の手順は別の場所で説明されています)、既存のディスクに接続することです。再シルバーが完了するまで待ち、古いディスクをミラーから切り離します (zpool split念のため - を使用することをお勧めします)。これで、より大きなディスクが手に入ります。

関連情報