Große MTUs unter einigen VM-Systemen

Große MTUs unter einigen VM-Systemen

Ich bin mir ziemlich sicher, dass wir nicht die einzige Site sind, die Jumbo-Frames (~9k) verwendet, oder? Nun, an diejenigen unter Ihnen, die dies auch tun: Was tun Sie in Bezug auf Virtualisierung? Nämlich:

  • Xen unterstützt keine Pakete über 1500 Bytes auf überbrückten Schnittstellen. Jeder VM eine echte Schnittstelle zuzuweisen, könnte funktionieren, ist für mich aber keine Option.
  • KVM erledigt das, wenn ich an der Quelle herumfummele. Andernfalls kann ich bis zu 4.000 Pakete erhalten. An der Quelle herumzufummeln ist nichts, was ich wirklich tun möchte (auf Wiedersehen, Upstream-Patches ohne Neuaufbau!)
  • VMWare erwähnt es auch nicht. Die VSphere-Preise schrecken mich ab, aber vielleicht kann ich einfach ESX(,i) nehmen?

Ich verwende keine Jumbo-Pakete für iSCSI oder NFS. Ich verschiebe wirklich eine Menge Daten zwischen Knoten, und die Erhöhung meiner MTUs hat dort zu Geschwindigkeitsverbesserungen beigetragen. Meine Plattform ist CentOS 5.x, und ich würde es vorziehen, dabei zu bleiben, aber ich nehme an, es gibt auch andere Optionen? Sagen Sie es mir!

Macht irgendjemand etwas Schlaues, an das ich nicht gedacht habe?

[Bearbeiten]

Warum will ich das? Nun, meine vorhandenen Maschinen verwenden alle MTUs von 9000, und der Ort, an dem das passiert, ist unsere Clusterschicht. Wenn ich eine neue Maschine hinzufüge, die keine Jumbo-Pakete spricht, kann sie dem Cluster nicht beitreten und es funktioniert nicht. Obwohl ich also gerne die Frage „Brauchen wir tatsächlich Jumbo-Pakete?“ noch einmal aufgreifen würde, ist das ein viel größeres Projekt, als einfach eine neue Maschine online zu bringen. Neue Maschinenhabenum mit dem Cluster kommunizieren zu können. Im Moment bedeutet das, dass die Bereitstellung auf nackter Hardware erfolgt, und das ist Mist.

Antwort1

Für ESXi 4 Standard-Virtual-Switches müssen Sie dies über eine CLI tun. Wenn Sie den (nicht unterstützten) Pseudokonsolenmodus oder den (unterstützten) VMA verwenden, lautet der entsprechende Befehl:

esxcfg-vswitch -m 9000 vSwitch0

Ersetzen Sie vSwitch0 durch die entsprechenden virtuellen Switch-IDs und wiederholen Sie dies nach Bedarf für alle vSwitches, die Sie für 9K-Jumbo-Frames aktivieren müssen.

In größeren (viel größeren) Umgebungen, in denen Sie verteilte virtuelle Switches verwenden, können Sie die MTU über die vSphere-Client-GUI ändern.

Antwort2

Meiner Erfahrung nach sind Jumbo-Frames wirklich alles andere als brauchbar. Die Offloading-Technologie ist ein Chaos, insbesondere das, was b-com bietet, und die Switches können sie nicht gut genug unterstützen.

Insbesondere für VMs würde ich bei normalen MTU-Größen bleiben und die Geschwindigkeit durch die Verwendung von Mode-4-Bonding oder die Umstellung auf 10G oder sogar Infiniband verbessern.

Allerdings unterliegen die virtio_net-Treiber von KVM meines Wissens nach keiner wirklichen Geschwindigkeitsbeschränkung, sodass sie trotz der 1G-Geschwindigkeit bei gegebener Bandbreite problemlos darüber hinausgehen können.

Antwort3

Keine direkte Antwort als solche, aber wenn Sie große Datenmengen zwischen mehreren Knoten verschieben, haben Sie schon einmal über Infiniband nachgedacht? Für solche Dinge ist es großartig.

verwandte Informationen