Ubuntu 伺服器 mdadm drbd ocfs2 kvm 在大量檔案讀取下掛起

Ubuntu 伺服器 mdadm drbd ocfs2 kvm 在大量檔案讀取下掛起

我部署了四台ubuntu 10.04伺服器。它們在集群場景中兩兩耦合。在兩側,我們都有軟體 raid1 磁碟、drbd8 和 OCFS2,在其之上,一些 kvm 機器運行 qcow2 磁碟。

我遵循了這個:關聯

corosync 僅用於 DRBD 和 OCFS,kvm 機器「手動」運行

當它工作正常時:良好的性能、良好的 I/O,但在給定時間兩個集群之一開始掛起。然後我們嘗試只打開一台伺服器,它還是一樣掛起。當其中一台虛擬機器中發生大量讀取時(即在 rsyn 備份期間),似乎會發生這種情況。當這種情況發生時,虛擬機將無法再訪問,並且真實伺服器對 ping 的回應有良好的延遲,但沒有螢幕,也沒有 ssh 可用。

我們所能做的就是強制關閉(按住按鈕)並重新啟動,當它再次開啟時,中繼 drbd 正在重新同步的 raid。在它掛起的所有時間裡,我們都看到這樣的事實。

今天早上,一側出現幾週的疼痛後,另一側集群也掛起,但它有不同的主機板、記憶體、kvm 實例。類似的是讀取 rsync 場景和兩側的 Western Digital RAID Edition 磁碟。

有人可以給我一些意見來解決這個問題嗎?

更新:我將所有映像從 qcow2 轉換為原始映像,並使用 noatime 和 nodiratime 從虛擬機器內安裝檔案系統。我使用 ionice 進行 rsync,但今天早上,當用戶從 samba 共享讀取大量檔案時,它再次掛起。現在我正在將虛擬機器想像從 ocfs2 轉移到 ext3,但這確實是一個失敗......歡迎任何想法。

答案1

對我來說,聽起來您需要嘗試另一種儲存方案(儘管如果您將 RAW 預先分配磁碟與虛擬機器一起使用,您將避免一些開銷,並且僅當您使用快照時才真正需要 qcow2)

虛擬機器在不使用叢集、僅使用本機磁碟的情況下運作是否穩定?

您是否嘗試過使用 ionice 為 rsync 進程分配更高的良好級別,以便它不會破壞其他所有內容?

您是否使用 GFS 而不是 ocfs2 進行過測試?可能結果會更好,並且您在發布連結的指南中有描述

相關內容