Wie führe ich zwei Nginx-Webserver auf derselben Maschine aus?

Wie führe ich zwei Nginx-Webserver auf derselben Maschine aus?

Ich möchte eine Website hosten und ein Microservices-Projekt auf meinem eigenen Server ausführen.

  1. Die Website wird mit dem Nginx-Webserver ausgeführt. Die Domäne der Website sieht wie folgt aus: sampleapp.com und diese Website verwendet Freessl.

  2. Einer der Dienste des Microservice-Projekts wird mit dem Nginx-Webserver als Dienst in einem Docker-Container ausgeführt. Dieser Dienst verwendet Subdomänen meiner sampleapp.com wie api-dev.sampleapp.com und diese Subdomänen sollten auch mit SSL funktionieren.

Beim Versuch, Dienste mit Docker-Compose bereitzustellen, erhalte ich die folgende Fehlermeldung:

[warn] 1#1: widersprüchlicher Servername „api-dev.sample.com“ auf 0.0.0.0:80, ignoriert

Die Hauptsorge besteht darin, wie ich SSL innerhalb von Docker einrichten kann. 443 ist der Standardport für HTTPS.

Die Nginx-Konfigurationsdatei meines Microservice sieht wie folgt aus.

worker_processes auto;

events {
  worker_connections 1024;
}

http {

  server {
    listen 80 default_server;
    server_name "";
    return 444;
  }

  server {
    server_name game-dev.sampleapp.com;

    location / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_set_header Host $http_host;
      proxy_set_header X-NginX-Proxy true;
      proxy_http_version 1.1;
      proxy_set_header Upgrade $http_upgrade;
      proxy_set_header Connection "upgrade";

      proxy_pass http://game_nodes;
      proxy_redirect off;
    }
  }
  server {
    if ($host = game-dev.sampleapp.com) {
      return 301 https://$host$request_uri;
    }


    listen 80;
    listen [::]:80;
    server_name game-dev.sampleapp.com;
    return 404;
  }

  upstream game_nodes {
#    enable sticky session
 #   ip_hash;
    server game-alpha:3000;
    keepalive 8;
  }

  server {
    server_name api-dev.sampleapp.com;

    location / {
      proxy_set_header X-Real-IP $remote_addr;
      proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
      proxy_set_header Host $http_host;
      proxy_set_header X-NginX-Proxy true;

      proxy_pass http://main_nodes;
      proxy_redirect off;

    }
  }

  server {
   # if ($host = api-dev.sampleapp.com) {
    #  return 301 https://$host$request_uri;
    #}

    listen 80;
    listen [::]:80;
    server_name api-dev.sampleapp.com;
    return 404;
  }

  upstream main_nodes {
    server main-alpha:8000;
    server main-beta:8000;
    keepalive 8;
  }
}

Die Nginx-Konfigurationsdatei der Website ist wie folgt

server {
    listen 8080;
    listen [::]:8080;
    listen 8443 ssl http2;
    listen [::]:8443 ssl http2;

    server_name  sampleapp.com www.sampleapp.com;
    root /var/www/sampleapp.com;
    index index.html;

    ssl_certificate /etc/ssl/certs/sampleapp.com.pem;
    ssl_certificate_key /etc/ssl/private/sampleapp.com.key;
    ssl_client_certificate /etc/ssl/certs/origin-pull-ca.pem;
    ssl_verify_client on;

    client_max_body_size 100M;
  
    autoindex off;

    location / {
        try_files $uri $uri/ =404;

    }

}

Ich bin Entwickler und kein Systemadministrator, daher fällt es mir schwer, den besten Weg dafür zu finden.

Antwort1

Eine der möglichen Lösungen besteht darin, 3 Docker-Container mit Nginx auszuführen.

  1. lauscht auf den Ports 80 und 443, entlastet SSL und arbeitet als Reverse-Proxy für zwei andere Container.
  2. dreht die Website
  3. dreht den Microservice

verwandte Informationen