私は、Oracle RAC (3 ノード) を実行する AIX 環境の IBM System Storage DS4000 SAN を継承しました。ノードの 1 つがクラッシュしたため、2 つのノードでシステムを起動して実行しました。ただし、クラッシュしたノードはバックアップを管理していたノードでした。バックアップは SAN の LUN に保存されていました。
ドキュメントが不足しているため、 からどのようにマッピングされているかはわかります/etc/filesystems
が、AIX 環境が起動時にこれらの LUN をどのようにマッピングしたかはわかりません (SAN 管理インターフェイスからのマッピング関連付け以外)。バックアップに使用した LUN を古いノードから残りのノードの 1 つに再マッピングしたいのですが、LUN 上のデータが失われるのではないかと心配しています。
いくつかの指示を見つけましたここただし、これは新しい LUN にのみ適用されるようです。LUN を新しいホストに再マップした場合、その LUN 上の既存のデータはそのまま残りますか?
アップデート1:
思ったより知識が少なかったようです。
ストレージコントローラに新しいアレイを作成しました。テストそして新しいLUNはログバックアップ私の理論をテストするために、ノードの1つにLUNとしてマッピングしました12。
そのノードで を実行したところ、cfgmgr
エラーが発生し、これら解決するための手順。
cfgmgr が動作していれば LUN を表示できると思っていましたが、表示されませんでした。少なくとも、およびの出力ではlspv
簡単lscfg
にlsdev -Cc Disk
翻訳できる情報は提供されませんでした。
LUN を数回アンマップして再マップしましたが、cfgmgr を実行しても hdisk のリストに変更はありません。
アップデート2:
出力を間違って読んでいたようですlscfg
。LUNを12から255に変更したところ、 に変更がありましたlscfg
。LUNは次のようにマッピングされました。hdisk16そこで、 を使用して物理ボリュームとして追加しましたchdev -l hdisk16 -a pv=yes
。次に、fget_config -Av
を実行して、LUN が適切にマップされていることを確認できました。これで、マウントして書き込み、他のノードに移行して、データがそのまま残っているかどうかを確認するだけです。