
Em um dos meus servidores, configurei um dispositivo bond que consiste em uma placa de rede integrada e uma placa de rede PCIe. (eth1 e eth5)
Eu configurei a configuração de acordo com man ifcfg-bonding
- ou seja, eth1 e eth5 não serão acionados na inicialização do sistema, mas bond0 fará isso.
Agora o problema parece ser que a eth5 demora muito para estabelecer um link. O resultado é um bond0 em execução que consiste em eth1 e eth5, mas o link eth5 está inativo.
Se eu fizer um manual ifconfig eth5 up
nessa situação, a eth5 terá um link e tudo ficará bem.
Detalhes:
# cat /proc/net/bonding/pbond0
Ethernet Channel Bonding Driver: v3.2.5 (March 21, 2008)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Slave Interface: eth5
MII Status: up
Link Failure Count: 0
# ethtool -i eth1
driver: bnx2
version: 2.0.18-suse
firmware-version: 6.2.16 bc 5.0.4 UMP 1.1.9
# ethtool -i eth5
driver: e1000
version: 7.6.15.5-NAPI
firmware-version: 5.6-2
A solução pode ser dar mais tempo à eth5 para resolver o link durante a inicialização. Provavelmente isso é muito específico do sistema operacional (aqui: SLES10 SP4).
Responder1
Supondo que eth1 e eth5 estejam pelo menos definidos como ONBOOT=yes
(embora não tenha outra configuração), você pode usar a POST_UP_SCRIPT
variável in ifcfg-eth5
para chamar a sleep 5
.
Ou, ao contrário, para ifcfg-bond0
dar PRE_UP_SCRIPT
à eth5 algum tempo para se estabelecer.
Compare comUse a documentação.