18578

Energieeffizienz durch Virtualisierung

Laut einer Studie mit dem Titel "Energy efficient servers in Europe" beeinflussen Server und die dazugehörige Infrastruktur maßgeblich den Stromverbrauch in Büros und Rechenzentren, und zwar durch die erforderliche Energie für die Stromversorgung und Kühlung der Komponenten. Verfasser sind die österreichische und die französische Energieagentur, die IT-Hersteller Sun und IBM sowie die Universität Karlsruhe. Vom gesamten Stromverbrauch innerhalb der EU entfallen demnach 1,5 Prozent auf Server-Hardware und Infrastruktur, was Kosten von etwa sechs Milliarden Euro entspricht. Nach Überzeugung der Fachleute lassen sich durch die Serverkonsolidierung 50 bis 80 Prozent Stromkosten einsparen.

Die Schlüsseltechnik für die Konsolidierung ist die Virtualisierung der Server, bei der man flexibel logischen Partitionen bestimmte Server-Pools zuweist. Dadurch lässt sich verblüffend viel Strom sparen: Denn wenn Server so zusammengefasst sind, dass man deren Rechenleistung flexibel auf verschiedene Anwendungen verteilen kann, dann muss man weniger Maschinen bei "laufendem Motor" für die Spitzenzeiten vorrätig halten. Dies ist aber der Fall, wenn jeder Anwendung ein Server zugeschrieben wird und dessen Spitzenleistung nur einmal für einen kurzen Zeitraum zu 80 Prozent abgerufen wird, er die meiste Zeit aber für seine Verhältnisse viel zu wenig zu tun hat, trotzdem aber Strom frisst.

Wenn man aber etwa zehn Rechner mit 20-prozentiger Auslastung zu nur noch zwei Rechnern zusammenlegt, die aber dann zu 90 Prozent ausgelastet sind, spart man natürlich auch Strom. Denn vom Stromverbrauch her unterscheiden sich die unterschiedlich ausgelasteten Server nicht wesentlich. Die zwei Server leisten also im Prinzip das gleiche wie die zehn, benötigen insgesamt aber nur ein Fünftel an Strom.

Zudem benötigen zwei Komponenten weniger Platz und Kühlung, was sich ebenfalls positiv auf den Energieverbrauch auswirkt. Doch nicht nur die geringere Anzahl der Server hilft, Strom zu sparen: Der verfügbare Arbeitsspeicher lässt sich ebenfalls in einer virtuellen Umgebung besser auslasten als bei einem einzelnen Computer. Auch der Hauptspeicher benötigt Strom, und da der Memory von Jahr zu Jahr größer wird, nimmt auch sein Energiehunger zu.

Verlässt man die Systemebene und wirft einen Blick ins Rechenzentrum, wird deutlich, zu was für einem Kostenfaktor der Strom für die IT werden kann: Wenn eine mittelgroße Serverfarm 500 Kilowatt an Strom verbraucht, dann beträgt die jährliche Stromrechnung dafür bei einem Preis von 13 bis 15 Cent pro Kilowattstunde schon über eine halbe Million Euro.

PC-WELT Marktplatz

18578