単一のサーバーから複数のサーバーに送信トラフィックの負荷を分散するにはどうすればよいですか?

単一のサーバーから複数のサーバーに送信トラフィックの負荷を分散するにはどうすればよいですか?

VPS 上で実行されているアプリがあります。

私のサーバーは、外部 API に非常に高いレートで HTTP リクエストを送信しています。これにより、プロバイダーの送信トラフィック制限を超えてしまいました。

インターネットで検索したところ、着信トラフィックのバランスをとる方法についてはたくさんの情報が見つかりました。しかし、私の問題は発信トラフィックです。これについては、見つかった情報はほとんどなく、どれも私の状況に関係するものではありませんでした。

より高い帯域幅の許容量を得るために専用サーバーを購入することは、私にとっては手が出せないことです (少なくとも、アプリが十分に収益性が高くなるまでは、まずスケールアップする必要があります。これが私の問題です)。

次のアプローチで問題は解決しますか?

現在のサーバーはそのままにしていますが、プログラムを変更して、送信 HTTP リクエストを実行する代わりに、各リクエストの形成に使用するデータを含むキューを作成します。また、いくつかの小さな VPS も取得します。これらの VPS の役割は、メイン サーバーのキューに保留中のリクエストがあるかどうかを独立して断続的にチェックすることです。実行すべき保留中のリクエストがある場合は、キュー内のデータを使用して対応するリクエストを形成して送信し、最後に外部 API から応答を受信すると、HTTP 応答をメイン サーバーに送信します。

注: HTTP リクエストは外部プロキシ サービスを経由するため、各リクエストにオーバーヘッドが追加されます。リクエスト サイズを最小限に抑える方法についてのアドバイスも役立つかもしれません。

トラフィック量の多いアプリを展開するのは初めてで、ネットワークに関する知識がほとんどないため役に立ちません。ご意見をいただければ幸いです。

関連情報