Netplan не распознает Ethernet-подключение на сервере Ubuntu 20.04

Netplan не распознает Ethernet-подключение на сервере Ubuntu 20.04

Проблема

Недавно я перевез сервер Ubuntu 20.04 в новый дом и попытался подключить его к сети. Подключение через кабель Ethernet в моем предыдущем доме прошло без проблем, но с моим новым модемом это не работает. Убедившись, что кабель Ethernet работает с моим ноутбуком, я начал отладку и пришел к выводу, что я что-то неправильно настроил с помощью netplan.

Попытка решения

Первоначально запуск $ ip aдал следующий результат:

1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eno1: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc fq_codel state DOWN group default qlen 1000
    link/ether f8:b1:56:dc:47:25 brd ff:ff:ff:ff:ff:ff
3: br-cd5031a2a690: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 02:42:88:f5:00:c2 brd ff:ff:ff:ff:ff:ff
    inet 172.29.0.1/16 brd 172.29.255.255 scope global br-cd5031a2a690
       valid_lft forever preferred_lft forever
4: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 02:42:63:c5:ed:bf brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 brd 172.17.255.255 scope global docker0
       valid_lft forever preferred_lft forever
5: br-6e210ada6a5d: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:cc:35:23:8d brd ff:ff:ff:ff:ff:ff
    inet 172.30.0.1/16 brd 172.30.255.255 scope global br-6e210ada6a5d
       valid_lft forever preferred_lft forever
    inet6 fe80::42:ccff:fe35:238d/64 scope link 
       valid_lft forever preferred_lft forever
6: br-75e07944c75a: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default 
    link/ether 02:42:cb:38:ca:3c brd ff:ff:ff:ff:ff:ff
    inet 172.27.0.1/16 brd 172.27.255.255 scope global br-75e07944c75a
       valid_lft forever preferred_lft forever
    inet6 fe80::42:cbff:fe38:ca3c/64 scope link 
       valid_lft forever preferred_lft forever
8: veth5501abf@if7: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-6e210ada6a5d state UP group default 
    link/ether 3e:9d:7d:bc:07:5f brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet6 fe80::3c9d:7dff:febc:75f/64 scope link 
       valid_lft forever preferred_lft forever
10: veth5f8842d@if9: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-75e07944c75a state UP group default 
    link/ether f2:f4:e9:50:51:ac brd ff:ff:ff:ff:ff:ff link-netnsid 3
    inet6 fe80::f0f4:e9ff:fe50:51ac/64 scope link 
       valid_lft forever preferred_lft forever
12: veth6164405@if11: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-6e210ada6a5d state UP group default 
    link/ether 5e:f2:e1:fd:1f:4d brd ff:ff:ff:ff:ff:ff link-netnsid 2
    inet6 fe80::5cf2:e1ff:fefd:1f4d/64 scope link 
       valid_lft forever preferred_lft forever
14: veth8f9aa5b@if13: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-6e210ada6a5d state UP group default 
    link/ether 46:c8:0b:f7:c5:ac brd ff:ff:ff:ff:ff:ff link-netnsid 1
    inet6 fe80::44c8:bff:fef7:c5ac/64 scope link 
       valid_lft forever preferred_lft forever
16: vethc256b04@if15: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br-75e07944c75a state UP group default 
    link/ether b6:7c:3e:1e:ec:7e brd ff:ff:ff:ff:ff:ff link-netnsid 1
    inet6 fe80::b47c:3eff:fe1e:ec7e/64 scope link 
       valid_lft forever preferred_lft forever

Это указало мне на eno1интерфейс, который мне нужно исправить; все мосты и veth-интерфейсы, скорее всего, взяты из контейнеров Docker, которые я запускаю.

Затем я установил в своем 01-netcfg.yamlфайле следующую рекомендуемую конфигурацию для настройки соединения с динамическим IP-адресом, назначаемым DHCP:

network:
  version: 2
  renderer: networkd
  ethernets:
    eno1:
      dhcp4: true

и выполнил следующее:

$ sudo netplan --debug generate

$ sudo netplan apply

$ sudo reboot

Отладочный вывод команды «generate» выдает следующее:

** (generate:4699): DEBUG: 04:02:19.020: Processing input file /etc/netplan/01-netcfg.yaml..
** (generate:4699): DEBUG: 04:02:19.021: starting new processing pass
** (generate:4699): DEBUG: 04:02:19.021: We have some netdefs, pass them through a final round of validation
** (generate:4699): DEBUG: 04:02:19.021: eno1: setting default backend to 1
** (generate:4699): DEBUG: 04:02:19.021: Configuration is valid
** (generate:4699): DEBUG: 04:02:19.021: Generating output files..
** (generate:4699): DEBUG: 04:02:19.021: NetworkManager: definition eno1 is not for us (backend 1)
(generate:4699): GLib-DEBUG: 04:02:19.021: posix_spawn avoided (fd close requested) 

Похоже NetworkManager: definition eno1 is not for us, возникла проблема, и после перезагрузки я все еще не могу ничего пропинговать:

$ ping 8.8.8.8
ping: connect: Network is unreachable

Я повторил вышеуказанные шаги, используя эту рекомендуемую 01-netcfg.yamlконфигурацию, и убедился, что я использую пробелы вместо табуляции и что мои интервалы правильные:

network:
  version: 2
  renderer: networkd

Выполнение тех же команд настройки с флагом отладки дает следующий вывод:

** (generate:5041): DEBUG: 04:09:33.721: Processing input file /etc/netplan/01-netcfg.yaml..
** (generate:5041): DEBUG: 04:09:33.721: starting new processing pass
** (generate:5041): DEBUG: 04:09:33.721: We have some netdefs, pass them through a final round of validation
** (generate:5041): DEBUG: 04:09:33.721: Generating output files..
(generate:5041): GLib-DEBUG: 04:09:33.721: posix_spawn avoided (fd close requested) 

в котором больше нет соответствующего NetworkManager: definition eno1 is not for usсообщения (так как eno1оно не было указано), но после применения этих сгенерированных изменений и перезагрузки я по-прежнему не получаю соединения.

Я следовал нескольким постам и руководствам, которые, как мне кажется, рекомендуют варианты этих двух конфигураций, но одна из них, в которой, как я твердо уверен, возникла та же проблема, что и у меня, — этоэта почта.

Здесь автор отмечает, что часть проблемы была из-за ошибки в ядре 5.4.0-42-generic, которая была решена установкой драйвера r8168-dkms. Я также использую ядро ​​5.4.0-42-generic и вручную установил этот драйвер / обновил initramfs, но все равно не добился успеха после перезагрузки и повторной попытки обеих вышеуказанных конфигураций netplan.

Кроме того, вот мой вывод, $ sudo lshw -class networkесли это поможет:

  *-network
       description: Ethernet interface
       product: 82579LM Gigabit Network Connection (Lewisville)
       vendor: Intel Corporation
       physical id: 19
       bus info: pci@0000:00:19.0
       logical name: eno1
       version: 04
       serial: f8:b1:56:dc:47:25
       capacity: 1Gbit/s
       width: 32 bits
       clock: 33MHz
       capabilities: pm msi bus_master cap_list ethernet physical tp 10bt 10bt-fd 100bt 100bt-fd 1000bt-fd autonegotiation
       configuration: autonegotiation=on broadcast=yes driver=e1000e driverversion=3.2.6-k firmware=0.13-4 latency=0 link=no multicast=yes port=twisted pair
       resources: irq:25 memory:f7c00000-f7c1ffff memory:f7c39000-f7c39fff ioport:f080(size=32)
  *-network:0
       description: Ethernet interface
       physical id: 1
       logical name: br-75e07944c75a
       serial: 02:42:cb:38:ca:3c
       capabilities: ethernet physical
       configuration: broadcast=yes driver=bridge driverversion=2.3 firmware=N/A ip=172.27.0.1 link=yes multicast=yes
  *-network:1
       description: Ethernet interface
       physical id: 2
       logical name: veth5f8842d
       serial: f2:f4:e9:50:51:ac
       size: 10Gbit/s
       capabilities: ethernet physical
       configuration: autonegotiation=off broadcast=yes driver=veth driverversion=1.0 duplex=full link=yes multicast=yes port=twisted pair speed=10Gbit/s
  *-network:2
       description: Ethernet interface
       physical id: 3
       logical name: vethc256b04
       serial: b6:7c:3e:1e:ec:7e
       size: 10Gbit/s
       capabilities: ethernet physical
       configuration: autonegotiation=off broadcast=yes driver=veth driverversion=1.0 duplex=full link=yes multicast=yes port=twisted pair speed=10Gbit/s
  *-network:3
       description: Ethernet interface
       physical id: 4
       logical name: br-6e210ada6a5d
       serial: 02:42:cc:35:23:8d
       capabilities: ethernet physical
       configuration: broadcast=yes driver=bridge driverversion=2.3 firmware=N/A ip=172.30.0.1 link=yes multicast=yes
  *-network:4
       description: Ethernet interface
       physical id: 5
       logical name: veth5501abf
       serial: 3e:9d:7d:bc:07:5f
       size: 10Gbit/s
       capabilities: ethernet physical
       configuration: autonegotiation=off broadcast=yes driver=veth driverversion=1.0 duplex=full link=yes multicast=yes port=twisted pair speed=10Gbit/s
  *-network:5
       description: Ethernet interface
       physical id: 6
       logical name: br-cd5031a2a690
       serial: 02:42:88:f5:00:c2
       capabilities: ethernet physical
       configuration: broadcast=yes driver=bridge driverversion=2.3 firmware=N/A ip=172.29.0.1 link=no multicast=yes
  *-network:6
       description: Ethernet interface
       physical id: 7
       logical name: docker0
       serial: 02:42:63:c5:ed:bf
       capabilities: ethernet physical
       configuration: broadcast=yes driver=bridge driverversion=2.3 firmware=N/A ip=172.17.0.1 link=no multicast=yes
  *-network:7
       description: Ethernet interface
       physical id: 8
       logical name: veth6164405
       serial: 5e:f2:e1:fd:1f:4d
       size: 10Gbit/s
       capabilities: ethernet physical
       configuration: autonegotiation=off broadcast=yes driver=veth driverversion=1.0 duplex=full link=yes multicast=yes port=twisted pair speed=10Gbit/s
  *-network:8
       description: Ethernet interface
       physical id: 9
       logical name: veth8f9aa5b
       serial: 46:c8:0b:f7:c5:ac
       size: 10Gbit/s
       capabilities: ethernet physical
       configuration: autonegotiation=off broadcast=yes driver=veth driverversion=1.0 duplex=full link=yes multicast=yes port=twisted pair speed=10Gbit/s

Запрос

Может ли кто-нибудь помочь мне исправить эту проблему с Netplan и снова заставить работать Ethernet на моем сервере? Я очень ценю вашу помощь, если вам нужна какая-либо дополнительная информация от меня, пожалуйста, не стесняйтесь спрашивать :)

решение1

Вывод, показывающий, NetworkManager: definition eno1 is not for usбыл правильным; он просто говорит вам, что этот интерфейс обрабатывается бэкендом networkd, а не NetworkManagerтем. Когда вы удалили ссылки на eno1из вашего yaml, вы сказали netplan не настраивать никакие интерфейсы, а это не то, что вам нужно.

И ваш ip aвывод показывает, что eno1интерфейс указан как NO-CARRIER. Это обычно указывает на то, что ваше оборудование способно обнаруживать связь, а в данном случае обнаружило, что связи нет. Поэтому вам может потребоваться попробовать другой кабель Ethernet, убедиться, что ваш кабель хорошо подключен, и попробовать подключиться к устройству, отличному от модема, чтобы убедиться, что проблема не в модеме.

Связанный контент