Vielleicht eine etwas seltsame Frage, aber ich überlege, mir zu Hause einen Server einzurichten, und ich möchte ein paar Websites, eine Nextcloud und einen Plex-Server hosten. Meine Websites sind ziemlich einfach, und auf diese Weise spare ich eine Menge Geld für Hosting- und Dropbox-Gebühren usw. Ich habe einen alten Dell R710 gekauft, und wenn man sich den Stromverbrauch ansieht, liegt er bei etwa 350 Watt. Das summiert sich auf etwa 3000 kWh pro Jahr, vorausgesetzt, er ist rund um die Uhr in Betrieb.
Abgesehen davon, dass das ziemlich teuer ist (was mir eigentlich nichts ausmacht, da die Gebühren für Websites und Dropbox ungefähr gleich hoch sind), finde ich, dass das in Bezug auf den Energieverbrauch ziemlich verschwenderisch ist. Daher frage ich mich, wie hoch der Energieverbrauch beim Hosten einer Website oder einer Cloud ist. Ich kann online nichts dazu finden. Mein wichtigstes Argument dafür, nicht alles zu Hause zu hosten, wäre, wenn es viel effizienter wäre, alles woanders zu hosten.
Weiß jemand, wie viel Energie diese Dinge verbrauchen? In einer Zeit, in der wir weniger verschwenderisch mit unseren Ressourcen umgehen sollten, finde ich, dass dies bei Online-Produkten eigentlich erwähnt werden sollte. Wir wissen, dass Bitcoin die gleiche Menge an Energie verbraucht wie einige kleine Länder, und Google erklärt auf seiner Website, wie viel Energie eine Suche kostet, aber das ist für mich auch schon alles.
Danke
Antwort1
Sie werden es einfach nicht wissen, wenn Sie nicht wissen, wie der Hoster es macht. Wenn Sie besorgt sind, könnte ein einfacher virtueller Host oder nur ein Website-Host das Richtige für Sie sein. Ihre Berechnung ist auch falsch. Es ist unwahrscheinlich, dass ständig 350 Watt verbraucht werden.
Hoster machen dazu keine Angaben, denn jemand, der eine beliebte Website hostet, hat ein ganz anderes Nutzungsprofil als jemand, der nur ein paar Familienfotos hostet. Vergessen Sie beim Hosten zu Hause nicht, dass Sie sich wahrscheinlich nach einer Art dynamischer DNS-Lösung umsehen müssen.
Antwort2
Wenn es Ihnen nur um Energieeffizienz/-verbrauch geht, wird die Cloud bei geringen Arbeitslasten aufgrund der Skaleneffekte und der Dichte der Cloud-Server auf der physischen Hardware immer gewinnen. Im Gegensatz dazu ist Ihre Hardware relativ alt und ineffizient und wird wahrscheinlich nicht voll ausgelastet laufen?
Cloud bedeutet im Allgemeinen virtualisiert, d. h. mehrere virtuelle Server innerhalb eines Hypervisors auf einem einzigen physischen Server irgendwo. Durch die Virtualisierung vieler Server auf einem einzigen physischen Host können Cloud-Anbieter ihre Hardware viel besser ausnutzen („einen größeren Server in viele kleinere virtuelle Server aufteilen“) und benötigen insgesamt weniger Server und damit weniger Hardware und weniger Strom. Das bedeutet, dass es sehr schwierig ist, einen physischen Server mit einem Cloud-Server zu vergleichen, und das ist wahrscheinlich der Grund, warum Sie keinen sinnvollen Vergleich finden können. Cloud-Hosts könnten den Stromverbrauch berechnen oder zumindest einen oberen und unteren Wert basierend auf dem Verbrauch angeben, aber dadurch würden wahrscheinlich Informationen preisgegeben, die sie lieber privat halten würden.
Wenn Ihr Server bis zu 10 Jahre alt ist und möglicherweise 2x 6-Core-CPUs mit 2,4-3,3 GHz, bis zu 288 GB RAM und bis zu 8 Spindelfestplatten enthält, müssen Sie sich fragen, ob Ihnen das zu viel des Guten erscheint. Wenn die Antwort ja lautet, wird es nicht effizient sein. Ein großer, leistungsstarker Server, der wenig oder gar nichts tut, verbraucht Strom, heizt den Raum und sonst nicht viel. In der Cloud würde der zugrunde liegende Host immer noch andere nützliche Aufgaben erledigen, Strom verbrauchen und irgendwo ein Rechenzentrum aufheizen – da gibt es keinen Wettbewerb.
Um die Betriebskosten Ihres physischen Servers zu ermitteln, messen Sie diese am besten unter realistischer Belastung. Sie können einen günstigen „Energieverbrauchsmonitor“ kaufen, den Sie zwischen Server und Steckdose stecken und der Ihnen anzeigt, wie viel Strom verbraucht wird. Die 350 Watt des Netzteils sind die maximale Leistungsaufnahme, der tatsächliche Verbrauch ist geringer und hängt von der installierten Hardware/dem Betriebssystem/der Energieverwaltung und natürlich der Serverkonfiguration und -auslastung ab.
Die Möglichkeit, die Größe eines Cloud-Servers anzupassen, ist ein wichtiger Vorteil und Effizienztreiber – Sie zahlen nur für das, was Sie nutzen (und daher kann jemand anderes den Rest nutzen). Dieses Ziel, nur für das zu zahlen, was Sie nutzen, kann bis zu einem gewissen Grad lokal mit einem Schraubenzieher erreicht werden :-). Wenn Sie die zweite CPU entfernen, haben Sie wahrscheinlich immer noch 6 Kerne, sparen aber 50-100 Watt Stromverbrauch im Leerlauf. Beide CPUs sind auf bis zu 120 Watt ausgelegt, aber die Menge, die sie verbrauchen, hängt davon ab, wie stark sie arbeiten. Ein weiterer großer Stromverbraucher kann der Speicher sein. Ihr Server unterstützt bis zu 8 Festplatten – wie viele haben/brauchen Sie? Eine Reduzierung der Anzahl der Festplatten im Server oder der Austausch von Spindelfestplatten gegen SSDs würde den Stromverbrauch senken. Natürlich muss man hier zwischen zusätzlichen Kosten, Betriebskosten und verfügbaren Systemressourcen abwägen, aber es lohnt sich, eine umweltfreundlichere Option in Betracht zu ziehen.
Antwort3
Diese Frage kann nicht genau beantwortet werden – die Verwendung der Cloud kann etwas Strom sparen, aber wie viel, hängt vom Alter und den Modellen der Systeme ab, davon, wie sie optimiert und prozentual genutzt werden, wo sie sich befinden [Wärmeableitung, Anzahl der verwendeten Hops/Router] und vom Umfang der unterstützenden Infrastruktur. Niemand kann diese Frage „allgemein“ beantworten. Wenn ein geringer Energieverbrauch Ihr Ziel ist, sind Sie vielleicht besser dran, wenn Sie effizientere/stromsparendere Geräte verwenden und Solarmodule kaufen (und vielleicht Batterien, je nachdem, wie umweltfreundlich und teuer Sie sein möchten) – oder nach einem Hosting-Anbieter suchen, der in der Nähe von erneuerbarer Energie angesiedelt ist und auf diese ausgerichtet ist.
Sie haben die genauen Spezifikationen Ihres Systems nicht erwähnt, aber 300 Watt erscheinen für ein System dieses Alters, das das von Ihnen beschriebene leistet, furchtbar viel. Sie sollten in der Lage sein, die durchschnittliche Nutzung auf einen Bruchteil davon zu reduzieren – hauptsächlich durch Reduzierung der Kernfrequenz im Leerlauf. Ich denke, eine durchschnittliche Leistungsaufnahme von deutlich unter 100 Watt wäre leicht erreichbar, ohne externe Kühlung (z. B. Klimaanlage), die möglicherweise nicht erforderlich ist und bei Verwendung etwa 35 % hinzufügen würde.
Je nach Speicher können Sie Ihre Grundanforderungen wahrscheinlich auf einem Gerät mit deutlich geringerem Stromverbrauch ausführen (ich denke an etwas ARM-basiertes wie einen Pi) – obwohl ich zugeben muss, dass ich es nicht als kommerzielle Lösung einstufen würde und die Leistung darunter leiden würde.
Antwort4
Ihre Berechnung ergibt keinen Sinn. Dell PowerEdge R710:
Stromverbrauch im Leerlauf 150 W, Stromverbrauch in Spitzenzeiten 270 W
Auf einer anderen Site schreibt ein Benutzer: „Ich lasse es (R710) mit zwei Xeon(R) CPU X5677 @ 3,47 GHz und 40 GB RAM laufen. Außerdem betreibe ich (6) 3,5-Zoll-Laufwerke mit 2 TB auf dem Biest“, seine Leistungsaufnahme beträgt 244 W.
Noch eines: „2 x 5675 3.04, 64 GB RAM, 6 x 300 GB 15K SAS (1 als dedizierter Hot-Swap) H700, 2 x 870 W Netzteil“, Stromverbrauch 211 W.
Kann es nicht sein, dass Ihr Netzteil mit 350 W läuft? (Das ist die maximale Wattzahl, die es verarbeiten kann.)