단일 서버에서 여러 서버로 나가는 트래픽 로드를 어떻게 분산해야 합니까?

단일 서버에서 여러 서버로 나가는 트래픽 로드를 어떻게 분산해야 합니까?

VPS에서 실행되는 앱이 있습니다.

내 서버는 매우 빠른 속도로 외부 API에 HTTP 요청을 보냅니다. 이로 인해 공급자의 발신 트래픽 제한이 초과되었습니다.

인터넷 검색을 통해 들어오는 트래픽의 균형을 맞추는 방법에 대한 많은 정보를 얻을 수 있었지만 문제는 나가는 트래픽이었습니다. 여기서는 최소한의 정보만 찾았고 그 중 어떤 것도 내 상황과 연관될 수 없었습니다.

더 높은 대역폭 허용량을 확보하기 위해 전용 서버를 구입하는 것은 나에게 적합하지 않습니다(적어도 앱이 충분히 수익성이 높아질 때까지 먼저 확장해야 하므로 문제가 발생합니다).

다음 접근 방식으로 문제가 해결됩니까?

현재 서버를 유지하지만 나가는 HTTP 요청을 수행하는 대신 각 요청을 구성하는 데 사용하는 데이터가 포함된 대기열을 생성하도록 프로그램을 수정합니다. 또한 몇 가지 작은 VPS도 있는데, 이 VPS의 작업은 메인 서버 대기열에 보류 중인 요청이 있는지 독립적으로 간헐적으로 확인하는 것입니다. 수행해야 할 대기 중인 요청이 있는 경우 대기열의 데이터를 사용하여 해당 요청을 구성하여 전송하고, 마지막으로 외부 API로부터 응답을 받으면 기본 서버로 HTTP 응답을 보냅니다.

참고: 내 HTTP 요청은 각 요청에 오버헤드를 추가하는 외부 프록시 서비스를 통과합니다. 요청 크기를 최소화하는 방법에 대한 조언도 도움이 될 수 있습니다.

트래픽이 많은 앱을 배포하는 것은 처음이고 네트워크에 대한 최소한의 지식은 도움이 되지 않습니다. 어떤 의견이라도 대단히 감사하겠습니다.

관련 정보