wir haben die folgenden Festplatten von lsblk
, alle Festplatten sind nicht LVM
sdc 8:32 0 80G 0 disk /var/hadoop1
sdd 8:48 0 80G 0 disk /var/hadoop2
sde 8:64 0 80G 0 disk
sdf 8:80 0 80G 0 disk
sdc
und sdd
die Festplatten sind voll (100 % belegt)
der Status ist, dass sdc
die sdd
Festplatten voll sind und wir sie verwenden können
aber wir haben neue Festplatten sde und sdf, jede Festplatte mit einer Größe von20G
Also
sde
ist es möglich, die Festplatte hinzuzufügen sdc
, um weitere 20 GB für SDC bereitzustellen?
Antwort1
Anstatt Festplatten auf Betriebssystemebene hinzuzufügen, können Sie dies direkt in hadoop tun. Sie können sie der dfs.datanode.data.dir
Eigenschaft hinzufügen. Das Format ist
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/dev/sde,/dev/sdf</value>
</property>
Ich bin nicht 100% sicher, ob Hadoop mit RAW-Festplatten umgehen kann. In diesem Fall können Sie auf jeder neuen Festplatte eine große Partition erstellen, diese formatieren, mounten /var/hadoop3
und /var/hadoop4
das Format verwenden:
<property>
<name>dfs.datanode.data.dir</name>
<value>file:///disk/c0t2,/disk/c0t3,/var/hadoop3,/var/hadoop4</value>
</property>