MDADM RAID-0은 EBS를 사용하는 AWS Linux에서 성장한 후 크기가 증가하지 않습니다.

MDADM RAID-0은 EBS를 사용하는 AWS Linux에서 성장한 후 크기가 증가하지 않습니다.

Raid0을 디스크 2개에서 3개(Amazon AWS의 각 1TB EBS)로 늘리고 싶었지만 그 이후에는 크기가 변경되지 않았습니다. RAID는 두 개의 디스크 sdc와 sdd로 시작되었고 새 디스크는 sdf였습니다.

다음은 성장 명령입니다:

sudo mdadm --grow /dev/md0 --raid-devices=3 --add /dev/xvdf 

몇 시간 후 mdstats에 다음 정보가 표시되었습니다(사용 cat /proc/mdstat).

Personalities : [raid0] [raid6] [raid5] [raid4] 
md0 : active raid0 xvdf[3] xvdd[1] xvdc[0]
  3221223936 blocks super 1.2 512k chunks

그래서 나는 그것이 효과가 있기를 바랐지만 df -h나에게 다음을 주었다:

Filesystem      Size  Used Avail Use% Mounted on
/dev/md0        2.0T  1.6T  297G  85% /mnt/md0

그리고 sudo mdadm --detail /dev/md0보여주었다:

/dev/md0:
        Version : 1.2
  Creation Time : Tue Jul 22 16:05:40 2014
     Raid Level : raid0
     Array Size : 3221223936 (3072.00 GiB 3298.53 GB)
   Raid Devices : 3
  Total Devices : 3
    Persistence : Superblock is persistent

    Update Time : Sun Sep  7 01:37:39 2014
          State : clean 
 Active Devices : 3
Working Devices : 3
 Failed Devices : 0
  Spare Devices : 0

     Chunk Size : 512K

Number   Major   Minor   RaidDevice State
   0     202       32        0      active sync   /dev/sdc
   1     202       48        1      active sync   /dev/sdd
   3     202       80        2      active sync   /dev/sdf

따라서 RAID에는 3개의 장치와 올바른 크기(3072GB)가 있는 것처럼 보이지만 df이를 표시하지 않습니다. 이상하게도 새 디스크(sdf)는 3번으로 나열되고 2번은 나열되지 않습니다.

참고: 포맷 없이 "빈" EBS를 사용했습니다. (이미 포맷된) RAID에 추가하기 전에 새 RAID 디스크를 포맷해야 합니까?

내가 무엇을 놓치고 있나요? 새 RAID 디스크를 (부분적으로) 포맷해야 합니까(RAID에 필요한 데이터가 아직 남아 있지만 백업이 있음)? dfRAID를 잘못 읽었거나 RAID 확장이 아직 완료되지 않았습니까 ?

답변1

귀하의 단계에서는 /dev/md0에 있는 실제 파일 시스템 확장에 대해 언급하지 않았습니다. RAID('물리적' 디스크)를 확장한 다음 이를 확인하려면 그 위에 파일 시스템(ext4 등)을 확장해야 합니다 df.

관련 정보