Leituras SMART erráticas em um membro de uma matriz RAID 1

Leituras SMART erráticas em um membro de uma matriz RAID 1

Estou gerenciando um servidor que usa 2 SSDs nvme na conectividade RAID 1. Imediatamente perdi o acesso a um dos 2 e recebi meus e-mails degradados do array de ataque normal do mdadm.

Então pedi à empresa de hospedagem para dar uma olhada e eles disseram que os contatos do array precisavam de limpeza para fazer um contato melhor e assim que fizeram isso a máquina pegou o nvme e começou a reconstruir o array.

Quando a reconstrução terminou, entrei e verifiquei os resultados. Portanto, os SSDs não são novos. Eles são usados ​​para que as leituras SMART reflitam isso.

quando corri, nvme listobtive o seguinte resultado.

| => nvme list
Node                  SN                   Model                                    Namespace Usage                      Format           FW Rev
--------------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
/dev/nvme0n1          S************1       SAMSUNG MZVKW512HMJP-00000               1          36.70  GB / 512.11  GB    512   B +  0 B   CXA7500Q
/dev/nvme1n1          S************5       SAMSUNG MZVL2512HCJQ-00B00               1         511.95  GB / 512.11  GB    512   B +  0 B   GXA7801Q

Agora o servidor é bem antigo, mas comprei-o de segunda mão e reformatei-o há algumas semanas. Então está bem vazio agora. 36,7 GB no Membro 1 como espaço usado parecem corretos. O segundo membro é aquele que foi reconstruído. Ele relata 511,95 Gb usados. Isso não faz sentido em um array raid 1 (ou não?). Corrija-me se estiver errado.

Quero dizer, o sistema funciona muito bem. Quando corro:

| => cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 nvme1n1p1[2] nvme0n1p1[0]
      33520640 blocks super 1.2 [2/2] [UU]

md1 : active raid1 nvme1n1p2[2] nvme0n1p2[0]
      1046528 blocks super 1.2 [2/2] [UU]

md2 : active raid1 nvme0n1p3[0] nvme1n1p3[1]
      465370432 blocks super 1.2 [2/2] [UU]
      bitmap: 4/4 pages [16KB], 65536KB chunk

unused devices: <none>

Vejo que a matriz de ataque de software funciona perfeitamente. Essas duas unidades devem ser idênticas. O que significa esse uso de 511,96 Gb no segundo nvme? Isso é normal?

Tentei ver o que o SMARTMONTOOLS irá reportar e consegui:

| => smartctl -A /dev/nvme1
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.0-52-generic] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF SMART DATA SECTION ===
SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        31 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    0%
Data Units Read:                    25,639 [13.1 GB]
Data Units Written:                 2,127,320 [1.08 TB]
Host Read Commands:                 101,600
Host Write Commands:                8,203,941
Controller Busy Time:               239
Power Cycles:                       7
Power On Hours:                     26
Unsafe Shutdowns:                   3
Media and Data Integrity Errors:    0
Error Information Log Entries:      0
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               31 Celsius
Temperature Sensor 2:               31 Celsius

(sim, eu sei, o horário de funcionamento é 26. Este nvme é totalmente novo. Recebi uma confirmação da empresa de hospedagem.)

Todo o resto na unidade parece bem. A outra unidade é muito mais antiga e o relatório do smarmontools é:

| => smartctl -A /dev/nvme0
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.0-52-generic] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF SMART DATA SECTION ===
SMART/Health Information (NVMe Log 0x02)
Critical Warning:                   0x00
Temperature:                        27 Celsius
Available Spare:                    100%
Available Spare Threshold:          10%
Percentage Used:                    26%
Data Units Read:                    115,783,912 [59.2 TB]
Data Units Written:                 281,087,251 [143 TB]
Host Read Commands:                 1,142,872,239
Host Write Commands:                8,039,604,613
Controller Busy Time:               38,359
Power Cycles:                       519
Power On Hours:                     16,843
Unsafe Shutdowns:                   496
Media and Data Integrity Errors:    0
Error Information Log Entries:      154
Warning  Comp. Temperature Time:    0
Critical Comp. Temperature Time:    0
Temperature Sensor 1:               27 Celsius
Temperature Sensor 2:               33 Celsius

O que também parece estar bem e conforme o esperado. Mas por algum motivo nvme listmostra que está usando 512Gb. Como pode ser esse o caso? O processo de reconstrução não foi concluído corretamente?

O que você acha?

Responder1

Vejo agora que também obtenho esses resultados:

    Node                  SN                   Model                                    Namespace Usage                      Format           FW Rev  
--------------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
/dev/nvme0n1          S69xxxxxxxxxxxxx      Samsung SSD 980 PRO 2TB                  1           2.00  TB /   2.00  TB    512   B +  0 B   5B2QGXA7
/dev/nvme1n1          S69xxxxxxxxxxxxx      Samsung SSD 980 PRO 2TB                  1         381.65  GB /   2.00  TB    512   B +  0 B   5B2QGXA7

E mdstat parece ok:

    Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 nvme0n1p2[1] nvme1n1p2[0]
      1952279552 blocks super 1.2 [2/2] [UU]
      bitmap: 2/15 pages [8KB], 65536KB chunk

Alguém sabe por que isso?

informação relacionada