pdflush hängt auf Amazon EBS-Laufwerken bei der Verwendung von Dateien mit mehreren GB – gibt es eine Problemumgehung?

pdflush hängt auf Amazon EBS-Laufwerken bei der Verwendung von Dateien mit mehreren GB – gibt es eine Problemumgehung?

Wenn ich gunzip auf einer 1,7 GB großen Datei (die eine 8 GB große Datei generiert) auf einem EBS-Volume ausführe, friert pdflush nach dem Ausführen von gunzip ein und die CPU bleibt auf unbestimmte Zeit bei 100 % IO-Wartezeit hängen. Hier ist die Ausgabe von „ps aux | grep pdflush“. Beachten Sie den D-Status

Wurzel 87 0,0 0,0 0 0 ? D 06:18 0:00 pdflush Wurzel 88 0,0 0,0 0 0 ? D 06:18 0:00 pdflush

Die einzige Lösung besteht darin, die pdflush-Prozesse zu beenden. Die Prozesse werden auch nicht sofort beendet.

Dieses Problem ist wiederholbar und tritt bei neuen Instanzen auf. Ich betreibe 2xlarge-Instanzen und habe viel mehr freien RAM als verwendet wird (d. h. /proc/meminfo zeigt 20+GB MemFree an).

Hat jemand in der Vergangenheit eine Problemumgehung für dieses Problem gefunden?

Danke für alle Gedanken.

Robert

Antwort1

Verwenden Sie ein einzelnes EBS-Volume? Sie können versuchen, ein 4er-Stripeset zu verwenden. Dadurch erzielen Sie eine bessere E/A-Leistung.

verwandte Informationen