한 호스트에서 다른 호스트로 LUN을 다시 매핑할 때 어떤 기술적 문제를 알고 있어야 합니까?

한 호스트에서 다른 호스트로 LUN을 다시 매핑할 때 어떤 기술적 문제를 알고 있어야 합니까?

저는 Oracle RAC(3노드)를 실행하는 AIX 환경과 함께 IBM System Storage DS4000 SAN을 물려받았습니다. 노드 중 하나가 충돌하여 2개의 노드로 시스템을 가동하고 실행했습니다. 그러나 충돌이 발생한 노드는 백업을 관리하던 노드였습니다. 백업은 SAN의 LUN에 저장되었습니다.

문서가 부족하기 때문에 에서 어떻게 매핑되는지 볼 수 있지만 /etc/filesystemsAIX 환경이 부팅 시 이러한 LUN을 어떻게 매핑했는지는 잘 모르겠습니다(SAN 관리 인터페이스의 매핑 연결 제외). 백업에 사용된 LUN을 이전 노드에서 나머지 노드 중 하나로 다시 매핑하고 싶지만 LUN의 데이터가 손실될까 봐 걱정됩니다.

몇 가지 지침을 찾았습니다.여기, 하지만 이는 새 LUN에만 해당되는 것 같습니다. LUN을 새 호스트에 다시 매핑하면 해당 LUN의 기존 데이터가 그대로 유지됩니까?

업데이트 1:

생각보다 아는 것이 별로 없었던 것 같습니다.

내 스토리지 컨트롤러에 다음과 같은 새 어레이를 만들었습니다.시험그리고로그백업내 이론을 테스트하고 노드 중 하나에 LUN으로 매핑했습니다.12.

해당 노드에서 내가 실행했을 때cfgmgr 오류가 발생하여 따라갔습니다.이것들해결하기 위한 지침입니다.

cfgmgr이 작동하면 LUN을 볼 수 있을 것이라고 생각했지만, 적어도 의 출력은 볼 수 없으며 lspv쉽게 번역할 수 있는 정보를 제공하지 않습니다 lscfg.lsdev -Cc Disk

매핑을 해제하고 LUN을 몇 번 다시 매핑했지만 cfgmgr을 실행할 때 hdisk 목록에는 변경 사항이 없습니다.

업데이트 2:

출력 내용을 잘못 읽은 것 같습니다 lscfg. LUN을 12에서 255로 변경했더니lscfg . LUN을 다음에 매핑했습니다.hdisk16그래서 chdev -l hdisk16 -a pv=yes. 그런 다음 를 실행하여 fget_config -AvLUN이 제대로 매핑되었는지 확인할 수 있었습니다. 이제는 마운트하고 쓴 다음 다른 노드로 마이그레이션하여 데이터가 그대로 유지되는지 확인하기만 하면 됩니다.

관련 정보