Criei uma instância AWS EC2 para configurar o prometheus nele, criei um novo par de chaves ssh e provisionei a instância usando terraform, usei o tipo de instância como "t3.large" e um disco SSD de 120 GB e o sistema operacional é Ubuntu 18.04, e Eu poderia fazer ssh para a instância normalmente. Até agora está tudo bem.
Depois de algum tempo instalando o Prometheus e o Grafana usando o docker, volto para a instância e descubro que não consigo fazer login!! Estou tendo o seguinte problema:
ssh: connect to host [ip] port 22: Connection timed out
Tenho certeza de que isso não é um problema de conexão com a Internet, pois consigo fazer ssh para outras instâncias. e o problema é o mesmo ao usar o endereço IP ou DNS, a porta 22 também está aberta.
Este é o script terraform que usei, mas não acho que esteja relacionado a isso:
provider "aws" {
profile = "default"
region = "eu-west-1"
}
resource "aws_key_pair" "ubuntu" {
key_name = "ubuntu"
public_key = file("ubuntu.pem.pub")
}
resource "aws_security_group" "ubuntu" {
name = "ubuntu-security-group"
description = "Allow HTTP, HTTPS and SSH traffic"
ingress {
description = "SSH"
from_port = 22
to_port = 22
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTPS"
from_port = 443
to_port = 443
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 80
to_port = 80
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 3000
to_port = 3000
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 9090
to_port = 9090
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
ingress {
description = "HTTP"
from_port = 9100
to_port = 9100
protocol = "tcp"
cidr_blocks = ["0.0.0.0/0"]
}
egress {
from_port = 0
to_port = 0
protocol = "-1"
cidr_blocks = ["0.0.0.0/0"]
}
tags = {
Name = "terraform"
}
}
resource "aws_instance" "ubuntu" {
key_name = aws_key_pair.ubuntu.key_name
ami = "ami-0dc8d444ee2a42d8a"
instance_type = "t3.large"
tags = {
Name = "ubuntu-prometheus"
}
vpc_security_group_ids = [
aws_security_group.ubuntu.id
]
connection {
type = "ssh"
user = "ubuntu"
private_key = file("key")
host = self.public_ip
}
ebs_block_device {
device_name = "/dev/sda1"
volume_type = "gp2"
volume_size = 120
}
}
resource "aws_eip" "ubuntu" {
vpc = true
instance = aws_instance.ubuntu.id
}
Responder1
Finalmente descobri o problema e tive acesso à minha instância do EC2 novamente com todos os dados como estavam.
A razão por trás desse problema é que para permitir o tráfego http em uma nova porta que usei ufw
que habilita o firewall, e a regra para permitir o ssh não está incluída, ufw
o que causa a perda de acesso. Eu poderia ter usado grupos de segurança aws e adicionado a regra certa para evitar tudo isso.
A solução foi criar uma nova instância do EC2 e montar o volume da antiga instância do EC2 nesta nova instância criada.
liste os discos disponíveis da seguinte forma:
buntu@ip-172-31-27-78:~$ lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
loop0 7:0 0 97.8M 1 loop /snap/core/10185
loop1 7:1 0 28.1M 1 loop /snap/amazon-ssm-agent/2012
nvme0n1 259:0 0 120G 0 disk
└─nvme0n1p1 259:1 0 120G 0 part /
nvme1n1 259:2 0 120G 0 disk
└─nvme1n1p1 259:3 0 120G 0 part
Depois disso monte sua partição em qualquer diretório:
$ sudo mkdir /data
$ sudo mount /dev/nvme1n1p1 /data/
Agora você poderá acessar seus arquivos de volume, para permitir o acesso ssh, edite os arquivos user.rules
localizados user6.rules
no diretório /data/etc/ufw
e adicione estas linhas:
#user.rules
-A ufw-user-input -p tcp --dport 22 -j ACCEPT
-A ufw-user-input -p udp --dport 22 -j ACCEPT
user6.rules
-A ufw6-user-input -p tcp --dport 22 -j ACCEPT
-A ufw6-user-input -p udp --dport 22 -j ACCEPT
Parabéns aesta postagemque me ajudou muito, e reuni todos os passos aqui.