我應該如何將傳出流量負載從單一伺服器分配到多個伺服器?

我應該如何將傳出流量負載從單一伺服器分配到多個伺服器?

我有一個在 VPS 上運行的應用程式。

我的伺服器以非常高的速率向外部 API 發送 HTTP 請求。這導致我超出了提供者的傳出流量限制。

我在互聯網上的搜索為我提供了大量有關如何平衡傳入流量的信息,但我的問題是傳出流量,我在其中找到的信息很少,但沒有一個與我的情況相關。

為了獲得更高的頻寬而購買專用伺服器對我來說是負擔不起的(至少在應用程式變得足夠有利可圖之前,這需要它首先擴展,因此是我的問題)。

以下方法可以解決我的問題嗎?

我保留當前的伺服器,但修改了程序,以便它不執行傳出的 HTTP 請求,而是建立一個佇列,其中包含我用於形成每個請求的資料。我還獲得了一些較小的 VPS,其工作是獨立且間歇性地檢查主伺服器佇列中是否有任何待處理的請求。如果有待執行的請求,它使用佇列中的資料形成並傳送相應的請求,最後當從外部 API 收到回應時,將 HTTP 回應傳送到主伺服器。

注意:我的 HTTP 請求透過外部代理服務,這會增加每個請求的開銷。關於最小化請求大小的建議也可能會有所幫助。

這是我第一次部署高流量的應用程序,而且我對網路的了解也無濟於事。任何投入將不勝感激。

相關內容