Ubuntu Server mdadm drbd ocfs2 kvm이 과도한 파일 읽기로 인해 중단됩니다.

Ubuntu Server mdadm drbd ocfs2 kvm이 과도한 파일 읽기로 인해 중단됩니다.

4개의 우분투 10.04 서버를 배포했습니다. 클러스터 시나리오에서는 2개씩 결합됩니다. 양쪽에는 소프트웨어 raid1 디스크, drbd8 및 OCFS2가 있고 그 위에 일부 kvm 시스템이 qcow2 디스크로 실행됩니다.

나는 이것을 따랐다:링크

corosync는 DRBD 및 OCFS에만 사용되며 kvm 시스템은 "수동"으로 실행됩니다.

작동하면 괜찮습니다. 성능도 좋고 I/O도 좋지만 어느 순간 두 클러스터 중 하나가 중단되기 시작했습니다. 그런 다음 하나의 서버만 켜서 시도했지만 동일하게 중단되었습니다. 가상 머신 중 하나에서 과도한 읽기가 발생할 때, 즉 rsyn 백업 중에 발생하는 것 같습니다. 문제가 발생하면 가상 머신에 더 이상 연결할 수 없으며 실제 서버는 핑에 대해 상당한 지연으로 응답하지만 화면도 없고 SSH도 사용할 수 없습니다.

우리가 할 수 있는 일은 강제 종료(버튼을 누르고 있음)하고 다시 시작하는 것뿐입니다. 그리고 다시 켜지면 릴레이 drbd가 재동기화되는 RAID가 다시 켜집니다. 매달릴 때마다 우리는 그러한 사실을 봅니다.

오늘 아침 한쪽에 몇 주 동안 통증이 발생한 후 다른 클러스터도 중단되었지만 모터보드, 램, kvm 인스턴스가 다릅니다. 비슷한 것은 양쪽의 rsync 시나리오와 Western Digital RAID Edition 디스크에 대한 읽기입니다.

누구든지 그러한 문제를 해결하기 위해 나에게 의견을 줄 수 있습니까?

업데이트: qcow2의 모든 이미지를 raw로 변환하고 noatime 및 nodiratime을 사용하여 가상 머신 내에서 파일 시스템을 마운트했습니다. rsync에 ionice를 사용했지만 오늘 아침에 사용자가 삼바 공유에서 많은 파일을 읽는 동안 다시 멈췄습니다. 이제 가상 머신을 ocfs2에서 ext3로 옮기고 있지만 정말 패배입니다. 어떤 아이디어라도 환영합니다.

답변1

다른 스토리지 방식을 시도해야 할 것 같습니다(VM과 함께 사전 할당된 RAW 디스크를 사용하는 경우 일부 오버헤드를 피할 수 있으며 스냅샷을 사용하는 경우에만 qcow2가 실제로 필요합니다).

클러스터링 없이 로컬 디스크만 사용하여 VM이 안정적으로 실행됩니까?

다른 모든 것이 중단되지 않도록 ionice를 사용하여 rsync 프로세스에 더 높은 nice 수준을 할당하려고 했습니까?

ocfs2 대신 GFS로 테스트해 보셨나요? 더 나은 결과가 나올 수 있으며 링크를 게시한 가이드에 설명이 있습니다.

관련 정보