Я создал экземпляр AWS EC2 для настройки Prometheus на нем, я создал новую пару ключей SSH и подготовил экземпляр с помощью Terraform, я использовал тип экземпляра "t3.large" и SSD-диск на 120 ГБ, а ОС - Ubuntu 18.04, и я мог нормально подключиться к экземпляру по SSH. До сих пор все было в порядке.
После некоторого времени установки Prometheus и Grafana с помощью docker я возвращаюсь к экземпляру и обнаруживаю, что не могу войти в систему!! У меня возникает следующая проблема:
ssh: connect to host [ip] port 22: Connection timed out
Я уверен, что это не проблема с подключением к Интернету, так как я могу подключиться по ssh к другим экземплярам. Проблема та же самая при использовании IP-адреса или DNS, порт 22 также открыт.
Это скрипт terraform, который я использовал, но не думаю, что он связан с этим:
provider "aws" {
profile = "default"
region = "eu-west-1"
}
resource "aws_key_pair" "ubuntu" {
key_name = "ubuntu"
public_key = file("ubuntu.pem.pub")
}
resource "aws_security_group" "ubuntu" {
name = "ubuntu-security-group"
description = "Allow HTTP, HTTPS and SSH traffic"
ingress {
description = "SSH"
from_port = 22
to_port = 22
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTPS"
from_port = 443
to_port = 443
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 80
to_port = 80
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 3000
to_port = 3000
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 9090
to_port = 9090
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 9100
to_port = 9100
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
egress {
from_port = 0
to_port = 0
protocol = "-1"
cidr_blocks = ["0.0.0.0/0"]
}
tags = {
Name = "terraform"
}
}
resource "aws_instance" "ubuntu" {
key_name = aws_key_pair.ubuntu.key_name
ami = "ami-0dc8d444ee2a42d8a"
instance_type = "t3.large"
tags = {
Name = "ubuntu-prometheus"
}
vpc_security_group_ids = [
aws_security_group.ubuntu.id
]
connection {
type = "ssh"
user = "ubuntu"
private_key = file("key")
host = self.public_ip
}
ebs_block_device {
device_name = "/dev/sda1"
volume_type = "gp2"
volume_size = 120
}
}
resource "aws_eip" "ubuntu" {
vpc = true
instance = aws_instance.ubuntu.id
}
решение1
Я наконец-то разобрался с проблемой и снова получил доступ к своему экземпляру EC2 со всеми данными, которые я оставил без изменений.
Причина этой проблемы в том, что для разрешения http-трафика в новом порту я использовал, ufw
что включает брандмауэр, а правило для разрешения ssh не включено, ufw
что приводит к потере доступа. Я мог бы использовать группы безопасности aws и добавить правильное правило, чтобы избежать всего этого.
Решением было создание нового экземпляра EC2 и монтирование тома старого экземпляра EC2 к этому новому созданному экземпляру.
перечислите доступные диски следующим образом:
buntu@ip-172-31-27-78:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 97.8M 1 loop /snap/core/10185
loop1 7:1 0 28.1M 1 loop /snap/amazon-ssm-agent/2012
nvme0n1 259:0 0 120G 0 disk
└─nvme0n1p1 259:1 0 120G 0 part /
nvme1n1 259:2 0 120G 0 disk
└─nvme1n1p1 259:3 0 120G 0 part
После этого смонтируйте ваш раздел в любой каталог:
$ sudo mkdir /data
$ sudo mount /dev/nvme1n1p1 /data/
Теперь вы сможете получить доступ к файлам тома. Чтобы разрешить доступ по ssh, отредактируйте файлы user.rules
, user6.rules
расположенные в каталоге /data/etc/ufw
, и добавьте следующие строки:
#user.rules
-A ufw-user-input -p tcp --dport 22 -j ACCEPT
-A ufw-user-input -p udp --dport 22 -j ACCEPT
user6.rules
-A ufw6-user-input -p tcp --dport 22 -j ACCEPT
-A ufw6-user-input -p udp --dport 22 -j ACCEPT
Славаэта почтакоторый мне очень помог, и я собрал все шаги здесь.