
在我的一台伺服器上,我設定了一個由板載網路卡和 PCIe 網路卡組成的綁定裝置。 (eth1 和 eth5)
man ifcfg-bonding
我根據- 即 eth1 和 eth5 不會在系統啟動時啟動,但 bond0 會執行此操作來設定配置。
現在問題似乎是eth5建立連結的時間太長了。結果是由 eth1 和 eth5 組成的正在運行的 bond0,但 eth5 連結已關閉。
如果我在這種情況下做一個手冊ifconfig eth5 up
,eth5就會有一個鏈接,一切都會好起來的。
細節:
# cat /proc/net/bonding/pbond0
Ethernet Channel Bonding Driver: v3.2.5 (March 21, 2008)
Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth1
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Slave Interface: eth5
MII Status: up
Link Failure Count: 0
# ethtool -i eth1
driver: bnx2
version: 2.0.18-suse
firmware-version: 6.2.16 bc 5.0.4 UMP 1.1.9
# ethtool -i eth5
driver: e1000
version: 7.6.15.5-NAPI
firmware-version: 5.6-2
解決方案可能是給 eth5 更多時間在啟動期間建立連結。這可能是非常特定於作業系統的(此處:SLES10 SP4)。
答案1
假設 eth1 和 eth5 至少設定為ONBOOT=yes
(儘管沒有其他配置),則可以使用POST_UP_SCRIPT
變數 inifcfg-eth5
來呼叫sleep 5
.
或者,反過來,ifcfg-bond0
給PRE_UP_SCRIPT
eth5 一些時間來解決。
與之比較Suse 文檔。