Seit seinen Anfängen umfasst Virtualisierung und das damit mögliche Ressourcenmanagement nicht mehr nur einen einzelnen Rechner oder ein lokales Netzwerk von Servern, sondern springt beherzt in die Cloud. Dort ist dann von der eigentlichen Hardware gar nichts mehr zu sehen. Von einzelnen Servern bis hin zu ganzen Rechnernetzen liegt in der Cloud nahezu alles in Form von virtuellen Systemen vor, die im Rechenzentrum eines Dienstleisters laufen. Obwohl Virtualisierung in der Cloud zahlreichen Administratoren der alten Schule nicht geheuer sein dürfte, hält der Trend aufgrund der damit verbundenen Kostenersparnis an. In der Cloud lassen sich Ressourcen schnell und unkompliziert nach Bedarf anmieten (skalieren). Die Tech-Branche ist im Wettlauf um das große Geschäft der Zukunft, die Cloud. Die metaphorische Datenwolke erfasst viele Unternehmen: Softwarefirmen, Anbieter von Speicherplatz im Netz sowie nicht zuletzt die Hardwarehersteller. Mit immer schnelleren Internetleitungen wandern immer mehr Daten auf zentrale Rechenfarmen und Speicher im Netz. Doch mit Cloud-Diensten Geld zu verdienen, ist nicht einfach. Das Geschäft wächst zwar rasant, aber die Preise stehen im heftigen Wettbewerb massiv unter Druck.
Die größten Vorteile der Server-Virtualisierung
Virtuelle Systeme: Vom PC zum Server
Ab 1972 stellte IBM mit seinem System/370 erstmals einen Großrechner vor, der routinemäßig mehrere Hardware-gestützte virtuelle Maschinen mit VM/CMS als Betriebssystem starten konnte. Möglich machte dies eine separat erhältliche, virtuelle Speicherverwaltung. Mit dem Niedergang der Mainframes und dem Aufstieg des PCs wurde es zunächst lange still um das Thema Virtualisierung. Ein Comeback erlebte die Technik auf PCs, um dort typische Desktop-Betriebssysteme in virtuellen Maschinen auszuführen, und dies ganz ohne aufwendige Hardware-Unterstützung, allein mit einem Software-Hypervisor. Zuerst stellte Connectix 1997 seine Software Virtual PC 1.0 für den Mac vor. 1999 trat Vmware mit der Virtual Platform für x86-Prozessoren, aus der später Vmware Workstation werden sollte, einen Boom los, der bis heute anhält. Denn Vmware erkannte schnell das Potenzial von Servervirtualisierung und brachte nur ein Jahr später den GSX Server 1.0 heraus, der schon eine Management Console für mehrere virtuelle Maschinen auf verteilten Servern in einem Netzwerk mitbrachte. Von da an erweterte jeder Entwicklungsschritt von Virtualisierungsumgebungen und Managementwerkzeugen deren Einsatzfeld: Im Mittelpunkt stand dabei nicht mehr ein einzelner Host, sondern ein Netzwerk von Servern und ganze Rechenzentren. Getrieben wird diese Entwicklung bis heute von den steigenden Energiekosten sowie der Notwendigkeit von Konsolidierung.

©Quelle: University of Cambridge Computer Laboratory
Cloud: Leistung nach Maß für virtuelle Maschinen
Mit Cloud Computing (kurz „die Cloud“) ändert sich an den bestehenden Konzepten von Virtualisierung in Rechnernetzen nichts. Allerdings liefern Cloud-Anbieter die Möglichkeit, virtuelle Systeme in ihren Rechenzentren zu unterhalten. Der große Unterschied zu Virtual-Private-Servern, die es von Hosting-Unternehmen schon länger gibt, ist die vergleichsweise freie Einteilung von benötigter Rechenleistung und Netzwerkdurchsatz ganz nach Bedarf. Das gelingt über Management Consolen, welche als Web-App laufen und vom Kunden direkt bedient werden, damit die Wege kurz bleiben. Der Kunde bestellt per Klick Rechenleistung, installiert virtuelle Systeme aus dem Amazon Marketplace oder fügt Ressourcen einer laufenden, virtuellen Maschine hinzu – und der Anbieter belastet dann je nach bestellter Leistung die Kreditkarte des Kunden. Dieser Service nennt sich „Infrastructure as a Service“ (IaaS). Amazon hat dieses Modell 2008 als Erster zur Marktreife gebracht. Zur Bestellabwicklung und Koordination muss Amazon sowieso eigene Rechenzentren unterhalten und bietet mit Elastic Compute Cloud (kurz: Amazon EC2) die Möglichkeit, das Rechenzentrum mit zu nutzen. Die virtuellen Systeme, die unter Xen laufen, kann der Kunde mit Linux oder Windows selbst aufsetzen, und die kleinste verfügbare Rechnerinstanz für eine Maschine mit Linux kostet rund 15 Dollar pro Monat. IP-Adressen, Load Balancing und ausgehender Netzwerk-Traffic werden pro Gigabyte abgerechnet.
Die großen Anbieter von Rechenleistung sind neben Amazon auch Microsoft, IBM oder Google. Laut Daten des Marktforschers Synergy Research war die Amazon-Cloudsparte mit ihrem Umsatz im ersten Quartal 2015 größer als die der nachfolgenden vier Tech-Riesen zusammen. Viele Startups sind mit ihren Daten und Apps in Amazons Serverfarmen zu Hause – ein Markt, den Microsoft mit teils kostenlosen Starterangeboten angraben will. Microsoft Azure ist inzwischen eine ernst zu nehmende Cloud-Plattform und entwickelt sich in rasantem Tempo weiter. Neuerungen gibt es quasi am laufenden Band. Die vielleicht wichtigste Neuerung des letzten Halbjahres ist die Vorstellung extrem großer Virtueller Maschinen (VMs): die G-Series-VMs. Sie gelten als die größten und leistungsstärksten Maschinen, die es derzeit für die Public Cloud gibt. G-Series- VMs haben den grössten Arbeitsspeicher, die höchste Verarbeitungskapazität und die meisten lokalen SSDs aller Virtual-Machine-Größen für die Public Cloud.

©Quelle: Amazon
Datenschutz bei „Made in Europe“
Begleitet wird der Cloud-Boom durch Zweifel, ob es eine gute Idee ist, vertrauliche Daten in der Cloud zu speichern. Für Service-Anbieter in Deutschland wie QSC, Lufthansa Systems Cloud-Lounge und Nionex, die ein hiesiges Rechenzentrum haben, sowie Verträgen nach deutschem Recht, eröffnet sich durch diese Zweifel jedoch eine Chance. Trotz aller Ressourcen amerikanischer Anbieter können deutsche Firmen viele Kunden durch die Klarheit der europäischen Gesetzgebung gewinnen. Das Recht ist nicht in jedem Fall eine Hürde, sondern durchaus ein Unique-Selling-Point für Cloud-Marken „Made in Europe“.
Lesetipp: Die besten kostenlosen Cloud-Speicher aus Deutschland Ferner verlangen Unternehmen nach Rechtssicherheit und sollten sich nicht scheuen, auf dieser Basis mit Anbietern zu verhandeln. Die Konkurrenz in einem so beliebten Markt wie die Cloud ist groß. Und die Hersteller und der Fachhandel sind durchaus dazu geneigt, mit Anwendern die Vertragseinzelheiten auszuhandeln und in vielen Punkten zum Vorteil des Kunden einzulenken.
Glossar: IaaS, PaaS, SaaS
Kaum ein IT-Hype kommt ohne seinen eigenen Zoo an höchst eigenwilligen Abkürzungen aus. Die Service-Modelle von Cloud-Anbietern, die größtenteils auf Virtualisierung beruhen, sind in drei Ebenen unterteilt.

Infrastructure as a Service (IaaS): Der Kunde bekommt nur grundlegende Ressourcen, wie beispielsweise Rechenleistung, Speicher und Netzwerkkapazitäten im Rechenzentrum des Anbieters zur Verfügung gestellt. Was darauf läuft, kontrolliert der Kunde. Auf die tatsächliche Hardware im Rechenzentrum hat er allerdings keinen Einfluss. Die Abkürzung IaaS wird oft synonym mit Cloud-Virtualisierung verwendet.
Platform as a Service (PaaS): Anstatt sich mit der Infrastruktur von Betriebssystemen und Netzwerken abzugeben, kümmert sich der Kunde bei PaaS nur um seine Anwendungen. Der Cloud-Anbieter stellt dafür auf seinen fertig eingerichteten, virtuellen Systemen ein Set an Entwicklungswerkzeugen bereit. Die Entwicklungsumgebungen sind meist Java, Python, Ruby oder Node.js.
Software as a Service (SaaS): Der Cloud-Anbieter erlaubt dem Kunden den Zugriff auf eigene Anwendungen und gibt ihm lediglich die Kontrolle über die gespeicherten Daten und einige Einstellungen. SaaS verwendet heute im Alltag fast jeder: So fallen Webmailer wie Google Mail, GMX oder Web.de beispielsweise in diese Kategorie, da sie Funktionen eines Mailprogramms als Web-App abbilden.