
temos os seguintes discos de lsblk
, todos os discos não são lvm
sdc 8:32 0 80G 0 disk /var/hadoop1
sdd 8:48 0 80G 0 disk /var/hadoop2
sde 8:64 0 80G 0 disk
sdf 8:80 0 80G 0 disk
sdc
e sdd
os discos estão cheios (100% usados)
o status é esse sdc
e sdd
os discos estão cheios e podemos usá-los
mas temos novos discos sde e sdf, cada disco com tamanho de20G
então
é possível adicionar o sde
disco sdc
para dar mais 20G para sdc?
Responder1
Em vez de adicionar discos no nível do sistema operacional, você pode fazer isso diretamente no hadoop. Você pode adicioná-los à dfs.datanode.data.dir
propriedade. O formato é
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/dev/sde,/dev/sdf</value>
</property>
Não tenho 100% de certeza de que o hadoop possa lidar com discos RAW. Nesse caso, você pode criar em cada novo disco uma partição grande, formatá-la, montá-la /var/hadoop3
e /var/hadoop4
usar o formato:
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/var/hadoop3,/var/hadoop4</value>
</property>