Hinter dem viel strapazierten Schlagwort Virtualisierung verbirgt sich ein pfiffiges Konzept: Auf ein und demselben Server, PC oder Notebook laufen mehrere Betriebssysteme – gleichzeitig. So kann Linux in einer virtuellen Maschine unter Windows XP laufen und Mac OS X dient als Basis für eine zeitgleich laufende Windows-Vista-Installation samt aller Windows-Anwendungen.
Die Vorteile liegen auf der Hand: Zum einen können Anwendungen genutzt werden, die unter dem gerade favorisierten Betriebssystem nicht laufen würden. Mac-OS-X-Anwender nutzen gerne eine virtuelle Windows-Maschine, um zum Beispiel ihre bevorzugte Finanzverwaltungs- und Steuererklärungssoftware weiter nutzen zu können. Windows-User hingegen greifen gern auf Linux zurück, um Open-Source-Anwendungen in ihrer angestammten Umgebung nutzen zu können. All das geht ohne umständlichen Neustart des Rechners: Die virtuelle Maschine wird per Doppelklick vom Gastbetriebssystem aus gestartet.
Eines der beliebtesten Virtualisierungs-Einsatzszenarien von Privat- und Businesskunden ist sicherlich die sichere Surf- und Testumgebung: Eine virtuelle Maschine – gleich, ob unter Mac OS X, Linux oder Windows – wird genutzt, um unbehelligt von Viren und Trojanern durchs Netz surfen und Share- oder Trialware ausprobieren zu können. Beschädigt ein fehlerhaftes Programm das Betriebssystem oder fängt man sich einen Cyber-Schädling ein, kann die virtuelle Maschine per Knopfdruck in Sekundenschnelle wieder in den Ursprungszustand versetzt werden. Das Gastbetriebssystem bleibt hiervon völlig unberührt. Im Firmenumfeld kann dieses Szenario auch genutzt werden, um dem Mitarbeiter die private Nutzung des Firmennotebooks zu erlauben, ohne gleichzeitig die existierenden Sicherheitsrichtlinien der Firma zu verletzen: In der virtuellen Maschine kann der Mitarbeiter tun und lassen, was er möchte, ohne das Firmennetzwerk zu gefährden.
Doppelter Einsatz, doppelte Anforderung Der gleichzeitige Betrieb zweier oder gar weiterer Betriebssysteme erfordert natürlich entsprechend leistungsfähige Hardware. Schließlich greifen die Systeme alle auf die gleiche CPU, Grafikkarte und Festplatte zu. Auch der Arbeitsspeicher wird geteilt. Insofern gilt: Viel hilft viel. Aber auch der größte Hauptspeicher und die schnellste Festplatte beheben ein grundsätzliches Problem nicht: Sämtliche Anfragen der virtuellen Maschine an die zugrunde liegende Hardware müssen erst vom so genannten Hypervisor (HV) – manchmal auch Virtual Machine Monitor genannt – verarbeitet werden. Der HV ist ein Stück Software, dass zwischen Gast- und virtuellem Betriebssystem läuft und somit quasi die Hardware emuliert. Diese Emulation frisst viel Performance.

©2014
Um den Verlust zu minimieren, haben die Prozessorhersteller AMD und Intel jeweils eigene Befehlssatzerweiterungen für die x86-CPUs entwickelt: AMD nennt seine Technik AMD-V, Intel IVT (Intel Virtualization Technology). Die Erweiterungen sind nicht kompatibel, so dass die Anbieter von Virtualisierungssoftware ihre Produkte an AMD-V und IVT anpassen müssen. Bei den Platzhirschen VMware, Microsoft, Parallels und Xen ist dies schon seit Längerem der Fall. Dank der Erweiterungen können deutlich mehr Befehle direkt vom Gastbetriebssystem an den Prozessor geschickt werden, so dass die zeitraubende Umsetzung durch den Hypervisor entfällt.

©2014
Intel hat darüber hinaus noch weitere Änderungen an seinen Produkten vorgenommen, um diese an die Anforderungen der Virtualisierung anzupassen. Dabei legt der Hersteller Wert darauf, dass die Funktionen nicht nur in den hochgezüchteten Xeon-Server-Prozessoren zu finden sind, sondern auch in den für Notebooks und Desktop-PCs konzipierten Core-2-Duo-CPUs. So sorgt beispielsweise die VT-x-Technik unter anderem dafür, dass das virtualisierte Betriebssystem mit den gleichen Zugriffsrechten auf die CPU versehen wird, als würde es direkt auf der Hardware laufen (Ring aliasing). Ohne VT-x straucheln die Betriebssysteme, da sie manche Kommandos nicht wie gewohnt absetzen können. Auch Hauptspeicherzugriffe werden durch die Hardware-Ergänzung zuverlässiger.
Centrino-2-Spezialität Mit der Einführung von Centrino 2 findet sich noch eine weitere Spezialität in der Notebook-Plattform wieder: Intels Virtualization Technolgy T for directed i/O (VT-d). VT-d ist keine Änderung an der CPU, sondern vielmehr am Chipsatz. Durch VT-d ist es den Hardware-Treibern des virtualisierten Betriebssystems möglich, direkt auf die zugrunde liegende Hardware wie die Grafikkarte zuzugreifen. Der Hypervisor muss die Hardware also nicht länger aufwändig simulieren, wodurch sich die Performance des Gast-Betriebssystems drastisch erhöht. Ohne VT-d wäre dies nicht möglich, da sich die gleichzeitig laufenden Betriebssysteme sonst ins Gehege kämen und sich unter Umständen beispielsweise gegenseitig die zur Kommunikation mit der Hardware benötigten Bereiche des Hauptspeichers überschreiben könnten. VT-d verhindert diese Konflikte und erhöht so die Leistung erheblich.
Auch für VT-d bieten die führenden Anbieter von Virtualisierungssoftware bereits Unterstützung. AMD hat mit IOMMU (Input/Output Memory Mapping Unit) ein ähnliches Konzept im Köcher. Noch ist IOMMU aber nicht verfügbar, sondern wird erst in den ab Mitte 2009 verfügbaren Plattformen zu finden sein. (jp)