LUN をあるホストから別のホストに再マッピングするときに注意すべき技術的な問題は何ですか?

LUN をあるホストから別のホストに再マッピングするときに注意すべき技術的な問題は何ですか?

私は、Oracle RAC (3 ノード) を実行する AIX 環境の IBM System Storage DS4000 SAN を継承しました。ノードの 1 つがクラッシュしたため、2 つのノードでシステムを起動して実行しました。ただし、クラッシュしたノードはバックアップを管理していたノードでした。バックアップは SAN の LUN に保存されていました。

ドキュメントが不足しているため、 からどのようにマッピングされているかはわかります/etc/filesystemsが、AIX 環境が起動時にこれらの LUN をどのようにマッピングしたかはわかりません (SAN 管理インターフェイスからのマッピング関連付け以外)。バックアップに使用した LUN を古いノードから残りのノードの 1 つに再マッピングしたいのですが、LUN 上のデータが失われるのではないかと心配しています。

いくつかの指示を見つけましたここただし、これは新しい LUN にのみ適用されるようです。LUN を新しいホストに再マップした場合、その LUN 上の既存のデータはそのまま残りますか?

アップデート1:

思ったより知識が少なかったようです。

ストレージコントローラに新しいアレイを作成しました。テストそして新しいLUNはログバックアップ私の理論をテストするために、ノードの1つにLUNとしてマッピングしました12

そのノードで を実行したところ、cfgmgrエラーが発生し、これら解決するための手順。

cfgmgr が動作していれば LUN を表示できると思っていましたが、表示されませんでした。少なくとも、およびの出力ではlspv簡単lscfglsdev -Cc Disk翻訳できる情報は提供されませんでした。

LUN を数回アンマップして再マップしましたが、cfgmgr を実行しても hdisk のリストに変更はありません。

アップデート2:

出力を間違って読んでいたようですlscfg。LUNを12から255に変更したところ、 に変更がありましたlscfg。LUNは次のようにマッピングされました。hdisk16そこで、 を使用して物理ボリュームとして追加しましたchdev -l hdisk16 -a pv=yes。次に、fget_config -Avを実行して、LUN が適切にマップされていることを確認できました。これで、マウントして書き込み、他のノードに移行して、データがそのまま残っているかどうかを確認するだけです。

関連情報