
Auf einem meiner Server habe ich ein Bond-Gerät bestehend aus einer Onboard-Netzwerkkarte und einer PCIe-Netzwerkkarte eingerichtet. (eth1 und eth5)
Ich habe die Konfiguration wie folgt eingerichtet, d man ifcfg-bonding
. h. eth1 und eth5 werden beim Systemstart nicht aufgerufen, bond0 erledigt dies jedoch.
Das Problem scheint nun darin zu liegen, dass eth5 zu lange braucht, um eine Verbindung herzustellen. Das Ergebnis ist ein laufender Bond0, der aus eth1 und eth5 besteht, aber die eth5-Verbindung ist unterbrochen.
Wenn ich in dieser Situation ein Handbuch erstelle ifconfig eth5 up
, wird eth5 einen Link haben und alles wird in Ordnung sein.
Einzelheiten:
# cat /proc/net/bonding/pbond0
Ethernet Channel Bonding Driver: v3.2.5 (March 21, 2008)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Slave Interface: eth5
MII Status: up
Link Failure Count: 0
# ethtool -i eth1
driver: bnx2
version: 2.0.18-suse
firmware-version: 6.2.16 bc 5.0.4 UMP 1.1.9
# ethtool -i eth5
driver: e1000
version: 7.6.15.5-NAPI
firmware-version: 5.6-2
Die Lösung könnte darin bestehen, eth5 mehr Zeit zu geben, die Verbindung während des Bootvorgangs herzustellen. Dies ist wahrscheinlich sehr betriebssystemabhängig (hier: SLES10 SP4).
Antwort1
Vorausgesetzt, eth1 und eth5 sind mindestens auf eingestellt ONBOOT=yes
(obwohl es keine andere Konfiguration gibt), können Sie die POST_UP_SCRIPT
Variable in verwenden, ifcfg-eth5
um einen aufzurufen sleep 5
.
Oder andersherum, um ifcfg-bond0
eth5 PRE_UP_SCRIPT
etwas Zeit zu geben, sich zu etablieren.
Vergleichen mitSuse-Dokumentation.