から次のディスクがありますlsblk
。すべてのディスクは LVM ではありません。
sdc 8:32 0 80G 0 disk /var/hadoop1
sdd 8:48 0 80G 0 disk /var/hadoop2
sde 8:64 0 80G 0 disk
sdf 8:80 0 80G 0 disk
sdc
ディスクがsdd
いっぱいです(100%使用済み)
sdc
ディスクがsdd
いっぱいなので、使用できる状態です
しかし、新しいディスクsdeとsdfがあり、それぞれのディスクのサイズは20G
それで
SDC 用にさらに 20G を割り当てるためにsde
ディスクを追加することは可能ですか?sdc
答え1
オペレーティングシステムレベルでディスクを追加する代わりに、Hadoopで直接これを行うことができます。dfs.datanode.data.dir
プロパティに追加できます。形式は次のとおりです。
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/dev/sde,/dev/sdf</value>
</property>
Hadoop が RAW ディスクを処理できるかどうかは 100% 確信できません。その場合、新しいディスクごとに 1 つの大きなパーティションを作成し、フォーマットしてマウントし/var/hadoop3
、/var/hadoop4
format を使用します。
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/var/hadoop3,/var/hadoop4</value>
</property>