Archiv


Maschine in der Maschine

Die stark gestiegene Leistung moderner Computer erlaubt heute auch aufwändige Software, die einen kompletten Rechner abbildet und so das Erproben von Programmen in sicheren Umgebungen erlaubt. Wohin die Entwicklung geht, erörterten internationale Experten jetzt in San Francisco.

Manfred Kloiber im Gespräch mit Heinz Schmitz |
    Manfred Kloiber: Herr Schmitz, was steckt denn hinter dem Wort "Virtualisierung"?

    Heinz Schmitz: Ein virtueller Rechner ist im Prinzip ein Rechner im Rechner. Ein Stück Software spielt einen Rechner vor, bei dem man Betriebssysteme und Programme ganz normal installieren kann. Mal ist es ein Windows-Rechner, mal ist es Linux-Rechner, da läuft ein Programm drauf, und auf diesem Programm gibt es ein BIOS, der bootet ganz normal, da kann man dann drauf installieren und alles machen. Man hat also eine virtuelle Maschine.

    Kloiber: Kann man denn auch mehrere Rechner auf einen Rechner virtuell betreiben?

    Schmitz: Das ist der Sinn der Sache. Heute sind die Rechner so leistungsstark, man hat genug Speicher darin, so dass es an sich sinnlos ist, einfach nur einen einfachen Arbeitsplatzrechner oder einen Server doch auflaufen zu lassen. Und so installiert man eben parallel ganz viele Server, bis der Rechner genug ausgelastet ist. Voraussetzung ist allerdings, man muss genug Speicher haben.

    Kloiber: Sie sagen also, man kann einen Rechner auslasten, indem man mehrere virtuelle Rechner darauf laufenlässt. Aber das müssen Sie erstmal erklären, warum man denn nicht einen Rechner einfach richtig auslastet, anstatt mehrere Rechner darauf zu simulieren?

    Schmitz: Das geht darum, die Applikationen gegeneinander abzuwägen. Wenn man zum Beispiel zwei verschiedene Datenbanken auf einer Hardware laufen lassen möchte, gibt es oft Probleme, wenn man die unter einem Betriebssystem laufen lässt. So installiert man einfach auf der gleichen Hardware zwei virtuelle Maschinen: auf der einen läuft dann die eine Datenbank, auf der anderen die zweite. Und die Applikationen, die darauf laufen, sind vollkommen voneinander isoliert und können sich nicht stören.

    Kloiber: Man baut so also komplett abgeschirmte Rechenmaschinen auf einem Computer. Sind das auch sicherheitsrelevante Themen?

    Schmitz: Jeder Rechner muss natürlich für sich gesichert werden, wie auch eine normale Hardware. Es ist ein ganz normaler Rechner, der da virtuell abläuft. Ein so genannter Hypervisor ist das. Der verteilt die Prozessorleistung auf die verschiedenen virtuellen Rechner. Wenn man davon ausgeht, dass heute die Rechner so leistungsstark sind, das die nach einer Untersuchung des CERN im Schnitt nur zu 5 Prozent ausgelastet sind und nur zu Spitzenzeiten einmal gebraucht werden, so macht es doch Sinn, einfach mehrere Rechner auf eine Hardware zu packen und damit ganz einfach Strom und Platz zu sparen. Beim Betrieb eines Rechenzentrums entfallen heute schon 50 Prozent der Kosten für Elektrizität, Klima und Räume.

    Kloiber: Ist es denn jetzt ein Vorteil, das man einen Computer besser auslasten kann, der in Rechenzentren so zum Vorteil wird, oder kann man das auch am Arbeitsplatzcomputer dann machen?

    Schmitz: Am Arbeitsplatzcomputer hat es dann andere Vorteile, wenn man da mehrere virtuelle Maschinen hat. Man kann sich zum Beispiel auf einem Computer, der normalerweise mit Windows läuft, auch Linux virtuell installieren oder auch jedes andere Betriebssystem und dann parallel laufen lassen. Und noch etwas anderes: eine virtuelle Maschine ist im Prinzip nur eine Datei, die man speichern kann. Und wenn die virtuelle Maschine, etwa wenn man darauf eine Testsoftware installiert und die geht kaputt, nimmt man einfach die alte Datei, die man vorher gesichert hat und startet sie wieder. Man hat dann wieder den Ausgangszustand ohne große Datenverluste.

    Kloiber: Gehen wir noch einmal zurück in das Rechenzentrum. Wenn man da mehrere Computer drauf arbeiten, aber der eine Computer, auf dem die mehreren Computer nun arbeiten, fällt aus, was dann?

    Schmitz: Dann sind die anderen auch kaputt, dann sind alle virtuellen Maschinen weg. Deshalb fährt man auch Backupsysteme, die man dann einfach hochfahren kann. Im Moment wird daran gearbeitet, was man auch parallel laufen lassen kann. Also zwei virtuelle Maschinen, die das gleiche machen auf zwei verschiedenen Hardwares. Und wenn eine Hardware ausfällt, übernimmt die andere Maschine auch automatisch die Leistung und man kann kontinuierlich weiter arbeiten, ohne dass Daten verloren gehen.

    Kloiber: Kommen wir zurück auf die Fachtagung VMworld in San Francisco. Welche Trends wurden denn dort diskutiert?

    Schmitz: Der Trend ist ganz eindeutig die Virtualisierung des Rechenzentrums. Der Marktführer VM-Ware oder auch die aus der Open Source Szene kommende XenSource oder auch Microsoft stellten da ihre neuen Produkte vor, die es zum Teil erst zum Jahresende gibt. Mit verschiedenen Ansätzen: XenSource setzt auf ein Linux-Betriebssystem, das darunter sitzt, Microsoft auf ein Windowsbetriebssystem mit dem Server 2008 wird das ausgeliefert. Die möglicherweise cleverste Idee hat VMware. Die gehen her und bauen das direkt in die Hardware ein, zusammen mit Serveranbietern. Beim Anschalten wird dieser Hypervisor, also die virtuelle Maschine gestartet und man kann darauf installieren und hat alles da.