Große Downloads wie Linux-Images werden oft über BitTorrent oder HTTP angeboten. In letzter Zeit habe ich angefangen, BitTorrent häufiger zu verwenden, nicht aus einem bestimmten Grund, sondern eher aus einem Gefühl derUnterstützung von Open-Source-Produkten.
Heute ist mir in den Sinn gekommen, dass diese Vorgehensweise eine unnötige Netzwerklast verursachen könnte, da das BitTorrent-Netzwerk - soweit ich das Konzept verstehe - mit mehr Peers kommunizieren müsste, was einen zusätzlichen Overhead im Vergleich zum einfachen Streamen der Datei in großen Stücken von einem einzigen Host verursachen würde.
Oder reduziere ich tatsächlich die Netzwerklast, da die Datei von Knoten bereitgestellt werden kann, die physisch näher an meinem Standort sind als ein Spiegel?
Was sind also aus Benutzer- und globaler Sicht die Vor- und Nachteile der Verwendung der einen oder anderen Methode?
Antwort1
Bei hoher Belastung, etwa wenn gerade eine neue Version freigegeben wurde, ist es für den Benutzer wahrscheinlich von Vorteil, Bittorrent zu verwenden, da es bei hoher Belastung gut zurechtkommt und nicht ins Stocken gerät, wie es bei der herkömmlichen http/ftp-basierten Distribution oft der Fall ist.
Unter normalen Auslastungsbedingungen (also nicht am Veröffentlichungstag) bringt es dem Benutzer vermutlich keinen großen Nutzen, ist für den Distributor aber hoffentlich sehr günstig.
Im Großen und Ganzen übertragen Sie kleine Teile aus vielen Quellen, anstatt alles aus einer Quelle. Das ist ein bisschen Mehraufwand, aber ich glaube nicht, dass dieser so groß ist, dass er das Konzept sprengt.