
Wenn ich gunzip auf einer 1,7 GB großen Datei (die eine 8 GB große Datei generiert) auf einem EBS-Volume ausführe, friert pdflush nach dem Ausführen von gunzip ein und die CPU bleibt auf unbestimmte Zeit bei 100 % IO-Wartezeit hängen. Hier ist die Ausgabe von „ps aux | grep pdflush“. Beachten Sie den D-Status
Wurzel 87 0,0 0,0 0 0 ? D 06:18 0:00 pdflush Wurzel 88 0,0 0,0 0 0 ? D 06:18 0:00 pdflush
Die einzige Lösung besteht darin, die pdflush-Prozesse zu beenden. Die Prozesse werden auch nicht sofort beendet.
Dieses Problem ist wiederholbar und tritt bei neuen Instanzen auf. Ich betreibe 2xlarge-Instanzen und habe viel mehr freien RAM als verwendet wird (d. h. /proc/meminfo zeigt 20+GB MemFree an).
Hat jemand in der Vergangenheit eine Problemumgehung für dieses Problem gefunden?
Danke für alle Gedanken.
Robert
Antwort1
Verwenden Sie ein einzelnes EBS-Volume? Sie können versuchen, ein 4er-Stripeset zu verwenden. Dadurch erzielen Sie eine bessere E/A-Leistung.