더 빠른 연결을 위해 여러 서버를 통해 트래픽을 라우팅하는 방법

더 빠른 연결을 위해 여러 서버를 통해 트래픽을 라우팅하는 방법

인터넷 "속도"는 ISP가 제공하는 것뿐만 아니라 서버가 제공하는 것에 따라 달라지며, 후자는 ISP와 무관하므로 인터넷에 얼마를 지불하더라도 일부 사이트(대부분)는 전체적으로 향상되지 않습니다. 많은. 연결의 잠재력을 실제로 볼 수 있는 유일한 때는 Ubuntu 사본과 같이 대용량 파일과 대량의 시더가 포함된 (완전히 합법적인) 토렌트를 다운로드할 때입니다. 서버는 사용자에게 제공하는 것보다 더 많은 대역폭을 갖습니다. 다른 사용자를 위해 저장하세요.

내가 알고 싶은 것은 여러 프록시를 사용하여 동시에 여러 지점에서 서버에 액세스하여 전체 속도를 높이고 데이터를 분할하여 모두 기본 연결에 공급하는 방법입니다. 이것을 너무 잘 설명하고 있지만 누군가는 내가 이해하고 있는 것을 이해할 수도 있습니다.) 웹 브라우징뿐만 아니라 타사 앱 및 게임 등 모든 프로토콜에서 작동하는 것이 바람직합니다.

답변1

할 수 없습니다. 웹이 원하는 대로 작동하지 않습니다. 특히

  • UDP와 TCP 모두 트래픽 분할을 위한 내장 메커니즘을 제공하지 않으므로 일반적인 솔루션은 비현실적입니다.
  • ISP는 일반적으로 수신 및 송신 필터를 사용하여 네트워크를 통해 소스/타겟팅되지 않은 IP 주소의 라우팅을 방지하여 특정 유형의 공격을 방지합니다. (일반적인 솔루션을 비현실적으로 만들기)
  • 연결 속도는 연결 속도 외에 연결 대기 시간, 패킷 손실량 등 다양한 요인에 의해 제어됩니다.
  • 대부분의 서버는 로드를 공정하게 공유하려고 시도하지만 대역폭을 유휴 상태로 두지 않습니다. 그러나 대역폭의 우선 순위를 지정합니다.
  • 프록시는 소스 및 대상 IP 주소를 정의합니다. 여러 프록시는 서로 다른 소스 주소를 가지므로 대상은 이를 서로 다른 세션으로 (올바르게) 처리합니다.

답변2

이는 클라이언트 측 관점에서 실제로 실행 가능한 접근 방식이 아닙니다. 나는 당신이 설명하는 기술을 지원하는 기술이 없다고 생각합니다.

첫째, 다운로드의 경우 HTTP/FTP 다운로드는 단일 바이너리 응답 스트림이므로 다운로드하는 데이터는 단일 요청의 결과로 제공됩니다. 서버가 PARTIAL CONTENT(206)를 지원하는 경우 계산된 오프셋과 길이를 사용하여 여러 다운로드를 설정하는 시스템을 구성하여 여러 연결을 통해 수행할 수 있지만 모든 서버에서 작동하지는 않습니다. 어느 쪽이든 최소한 메커니즘은 HTTP 연결을 조작하고 있다는 것을 알아야 하므로 HTTP 데이터에 대해서만 작동합니다.

둘째, 대부분의 최신 웹사이트는 더 이상 정적인 문서가 아니며 프로그래밍 방식으로 서버 측에 구축되므로 세션 개념에 의존하는 경우가 많습니다. 세션은 일반적으로 사용자 연결로 제한되므로 서로 다른 두 위치에서 연결하는 경우 두 개의 서로 다른 세션이 됩니다. 각 세션에는 고유한 쿠키, 스크립트 등이 있고 공격자가 사용자가 수행하는 것과 같은 작업을 수행하지 못하도록 설계된 보안 장벽이 있기 때문에 다른 세션에서 나온 Get으로 만든 페이지를 구성하고 렌더링하려는 시도는 거의 불가능합니다. 생각하고 있습니다.

궁극적으로 그러한 도구가 존재할 수 있지만 상당한 프로토콜 지능이 있어야 하며(다른 경로를 통해 다른 연결을 사용하기 위해 프로토콜별 데이터를 다시 작성할 수 있도록) 격리된 GET을 전환하는 용량이 제한됩니다. 서버 측 프로토콜 및 작업에 따른 제한으로 인해 다른 연결.

관련 정보