
Estou gerenciando um servidor que usa 2 SSDs nvme na conectividade RAID 1. Imediatamente perdi o acesso a um dos 2 e recebi meus e-mails degradados do array de ataque normal do mdadm.
Então pedi à empresa de hospedagem para dar uma olhada e eles disseram que os contatos do array precisavam de limpeza para fazer um contato melhor e assim que fizeram isso a máquina pegou o nvme e começou a reconstruir o array.
Quando a reconstrução terminou, entrei e verifiquei os resultados. Portanto, os SSDs não são novos. Eles são usados para que as leituras SMART reflitam isso.
quando corri, nvme list
obtive o seguinte resultado.
| => nvme list
Node SN Model Namespace Usage Format FW Rev
--------------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
/dev/nvme0n1 S************1 SAMSUNG MZVKW512HMJP-00000 1 36.70 GB / 512.11 GB 512 B + 0 B CXA7500Q
/dev/nvme1n1 S************5 SAMSUNG MZVL2512HCJQ-00B00 1 511.95 GB / 512.11 GB 512 B + 0 B GXA7801Q
Agora o servidor é bem antigo, mas comprei-o de segunda mão e reformatei-o há algumas semanas. Então está bem vazio agora. 36,7 GB no Membro 1 como espaço usado parecem corretos. O segundo membro é aquele que foi reconstruído. Ele relata 511,95 Gb usados. Isso não faz sentido em um array raid 1 (ou não?). Corrija-me se estiver errado.
Quero dizer, o sistema funciona muito bem. Quando corro:
| => cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 nvme1n1p1[2] nvme0n1p1[0]
33520640 blocks super 1.2 [2/2] [UU]
md1 : active raid1 nvme1n1p2[2] nvme0n1p2[0]
1046528 blocks super 1.2 [2/2] [UU]
md2 : active raid1 nvme0n1p3[0] nvme1n1p3[1]
465370432 blocks super 1.2 [2/2] [UU]
bitmap: 4/4 pages [16KB], 65536KB chunk
unused devices: <none>
Vejo que a matriz de ataque de software funciona perfeitamente. Essas duas unidades devem ser idênticas. O que significa esse uso de 511,96 Gb no segundo nvme? Isso é normal?
Tentei ver o que o SMARTMONTOOLS irá reportar e consegui:
| => smartctl -A /dev/nvme1
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.0-52-generic] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF SMART DATA SECTION ===
SMART/Health Information (NVMe Log 0x02)
Critical Warning: 0x00
Temperature: 31 Celsius
Available Spare: 100%
Available Spare Threshold: 10%
Percentage Used: 0%
Data Units Read: 25,639 [13.1 GB]
Data Units Written: 2,127,320 [1.08 TB]
Host Read Commands: 101,600
Host Write Commands: 8,203,941
Controller Busy Time: 239
Power Cycles: 7
Power On Hours: 26
Unsafe Shutdowns: 3
Media and Data Integrity Errors: 0
Error Information Log Entries: 0
Warning Comp. Temperature Time: 0
Critical Comp. Temperature Time: 0
Temperature Sensor 1: 31 Celsius
Temperature Sensor 2: 31 Celsius
(sim, eu sei, o horário de funcionamento é 26. Este nvme é totalmente novo. Recebi uma confirmação da empresa de hospedagem.)
Todo o resto na unidade parece bem. A outra unidade é muito mais antiga e o relatório do smarmontools é:
| => smartctl -A /dev/nvme0
smartctl 7.2 2020-12-30 r5155 [x86_64-linux-5.15.0-52-generic] (local build)
Copyright (C) 2002-20, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF SMART DATA SECTION ===
SMART/Health Information (NVMe Log 0x02)
Critical Warning: 0x00
Temperature: 27 Celsius
Available Spare: 100%
Available Spare Threshold: 10%
Percentage Used: 26%
Data Units Read: 115,783,912 [59.2 TB]
Data Units Written: 281,087,251 [143 TB]
Host Read Commands: 1,142,872,239
Host Write Commands: 8,039,604,613
Controller Busy Time: 38,359
Power Cycles: 519
Power On Hours: 16,843
Unsafe Shutdowns: 496
Media and Data Integrity Errors: 0
Error Information Log Entries: 154
Warning Comp. Temperature Time: 0
Critical Comp. Temperature Time: 0
Temperature Sensor 1: 27 Celsius
Temperature Sensor 2: 33 Celsius
O que também parece estar bem e conforme o esperado. Mas por algum motivo nvme list
mostra que está usando 512Gb. Como pode ser esse o caso? O processo de reconstrução não foi concluído corretamente?
O que você acha?
Responder1
Vejo agora que também obtenho esses resultados:
Node SN Model Namespace Usage Format FW Rev
--------------------- -------------------- ---------------------------------------- --------- -------------------------- ---------------- --------
/dev/nvme0n1 S69xxxxxxxxxxxxx Samsung SSD 980 PRO 2TB 1 2.00 TB / 2.00 TB 512 B + 0 B 5B2QGXA7
/dev/nvme1n1 S69xxxxxxxxxxxxx Samsung SSD 980 PRO 2TB 1 381.65 GB / 2.00 TB 512 B + 0 B 5B2QGXA7
E mdstat parece ok:
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 nvme0n1p2[1] nvme1n1p2[0]
1952279552 blocks super 1.2 [2/2] [UU]
bitmap: 2/15 pages [8KB], 65536KB chunk
Alguém sabe por que isso?