Bei der Planung des neuen Rechenzentrums für den "Large Hardon Collider" am CERN, des europäischen Forschungslabors für Teilchenphysik in Genf, stand schnell fest, dass die Server virtualisiert werden. Nicht ein Server pro Computer, sondern mehrere voneinander getrennte Arbeitsprozesse, sogenannte virtuelle Maschinen, teilen sich einen Prozessor, Speicher, Festplatte und Netzwerkzugriff. Damit wurde nicht die absolute Geschwindigkeit der Rechner, sondern die Rechenleistung pro Watt Energieverbrauch ein ausschlaggebendes Kriterium.
Um die ersten Millisekunden nach dem Urknall unseres Universums zu erforschen, fallen bei den Versuchen im CERN ca. 50 Megabyte Daten pro Sekunde an, die verarbeitet werden müssen. Dazu entwickeln die Wissenschaftler die unterschiedlichsten Programme, die in den Datenströme nach bisher noch nicht gefunden Kernbausteinen suchen. Dafür wären bei herkömmlicher Vorgehensweise einige tausend Server notwendig, die sich zum Teil mit Minimalauslastung langweilen und Energie fressen.
Packt man nun mehrere dieser Programme auf eine Maschine, so ist die Auslastung zwar besser, aber eine gegenseitige Beeinflussung der Analysen ist nicht auszuschließen. Vor allem bei den leistungsfähigen "Multicore"-Prozessoren und den mit reichlich Arbeitsspeicher ausgestatteten Servern, können problemlos mehrere Anwendungen auf der gleichen Hardware parallel laufen.
Bei virtuellen Computern handelt es sich im Prinzip um eine Datei, die von einem sogenannten "Hypervisor" wie das Dateisystem eines Computers behandelt wird. Diese Dateien, die einen Computer repräsentieren, könne auf jeder Hardware, auf der ein "Hypervisor" läuft, gestartet werden. Dadurch können virtuelle Server leicht zwischen verschiedenen physikalischen Maschinen verschoben werden - mittels spezieller Dienstprogramme sogar im laufenden Betrieb.
Ist ein Rechner an der Auslastungsgrenze oder eine Applikation benötigt mehr Arbeitsspeicher, wird die komplette virtuelle Maschine auf einen anderen Rechner verschoben. So können die Maschinen in den Rechenzentren optimal ausgenutzt werden. Dadurch wird Energie für die Stromversorgung und die Klimatisierung gespart und der Platzbedarf wird reduziert - ein wichtiges Argument, da diese Nebenkosten mittlerweile 50 Prozent des IT-Etats ausmachen.
Zum anderen ist es der virtuellen Maschine egal, auf welchem Rechnertyp sie läuft. So ist eine Migration von alter auf neue Hardware ohne Neuinstallation möglich.
Die großen Spieler auf dem Feld der Virtualisierung sind Marktführer vmWare, der sei acht Jahren auf dem Gebiet arbeitet, XenSource, die auf der freien Software XEN basieren und Microsoft, die Virtualisierung im kommenden Server 2008 standardmäßig anbieten werden. Darüber hinaus sind in einigen Linux-Versionen Virtualisierungsfunktionen integriert.
Die Anbieter unterscheiden sich vor allen in der Implementation des "Hypervisors". Microsoft wird die Virtualisierung in das Betriebssystem einbauen. Auf jedem Computer, auf dem Server 2008 installiert ist, stehen virtuelle Server zur Verfügung. Bei Xensource wird der "Hypervisor" mit einem Linux-Kern gebündelt, der auf dem Computer installiert wird. Die Maschine bootet dann nicht mit einem Betriebssystem, wie gewohnt, sondern mit dem Virtualisierungskern, auf dem dann nahezu beliebige Gastbetriebssysteme installiert werden können.
Noch einen Schritt weiter geht vmWare. Zusammen mit Hardwareanbietern wie Dell, IBM, NEC, Fujitsu-Siemens und HP werden Server angeboten, die den "Hypervisor" direkt in die Hardware integrieren. Sofort nach dem Einschalten steht der "Hypervisor" zur Verfügung und bootet die installierten virtuellen Maschinen. Um den Anwendern mehr Sicherheit und Freiheit zu geben, haben sich Dell, HP, IBM, Microsoft, vmWare und XenSource zusammengeschlossen und ein gemeinsames Datenformat für virtuelle Maschinen zur Normung durch die DMTF ("Distributed Management Task Force") vorgeschlagen, das OVF oder "Open Virtual Machine Format". Damit können dann virtuelle Computer auf jedem "Hypervisor" laufen, der dieses Dateiformat kennt.
Im Cern setzt man auf die freie Virtualisierungsmaschine XEN. Sie ist nach als Open Source frei verfügbar und kann von den Wissenschaftlern an ihre speziellen Bedürfnisse angepasst werden. XenSource sieht in der freien Software einen Vorteil für die kommerzielle Abteilung, weil die Menge der Entwickler, die an dem Hypervisor arbeitet, ein großes Potential zur kontinuierlichen Weiterentwicklung besitzt. Der eigentlich rein kommerziell aufgestellte Anbieter vmWare bietet seinen "Hypervisor" allerdings auch kostenlos zum Download an. Er verfügt über alle Eigenschaften der kommerziellen Version. Allerdings kann man mit der Version keine neue Virtuelle Maschine anlegen.
Neben der reinen Virtualisierung der Server im Rechenzentrum propagieren die Enthusiasten auch die Virtualisierung der Arbeitsplatzrechner. Auf einem "Hypervisor" wird hierzu Windows oder Linux als virtuelle Maschine installiert. Mit einem Fernbedienungstool greift der Anwender auf diesen Rechner zu und arbeitet daran wie an seinem Arbeitsplatz. Der Vorteil ist, dass Systemadministratoren neue Rechner schnell aufsetzen können, indem sie einfach die Dateien, die eine virtuelle Maschine repräsentieren, kopieren, einen neuen Rechnernamen vergeben und fertig ist die neuen Workstation.
Über eine Managementsoftware von vmWare kann eine Sammlung von virtuellen Rechnern einer Gruppe von Anwendern zugeordnet werden. Logt sich ein Anwender über einen Browser - also auch über Internet - ein, so kann er aus dem Angebot der Maschinen, die er nutzen darf, eine auswählen. Per gesicherten Fernzugriff kann er von jedem Ort der Welt an seinem - virtuellen Arbeitsplatz arbeiten.
Vorteile sehen die Anbieter und Systemadministratoren in der gesteigerten Sicherheit, weil die Daten nie das Rechenzentrum verlassen. Wenn ein Außendienstmitarbeiter mit seinem Notebook arbeitet, läuft er Gefahr, dass vertrauliche Daten beim Verlust seines Rechners in die falschen Hände geraten. Bei der Arbeit am virtuellen Arbeitsplatz, bei der das Notebook nur als Fernsteuerung dient, sind die Daten immer sicher im Firmensitz aufgehoben.
Für die Zukunft strebt vmWare die Ausfallsicherheit virtueller Systeme an. Wenn heute die Hardware eines Rechners versagt, sind alle virtuellen Maschinen auf dem System tot. Manuell muss das Backupsystem hochgefahren werden. Zukünftig sollen jeweils zwei identische virtuelle Maschinen auf zwei verschiedenen Rechnern parallel laufen - ein "Master" und ein "Slave". Fällt der "Master" aus, übernimmt der "Slave" nahtlos die Arbeit. Weil beide immer mit den gleichen Daten versorgt werden, ist die Datenintegrität gesichert. Ein Verfahren, das man aus dem sogenannten Clustern von Computern kennt - allerdings müssen dabei immer mindestens zwei Rechner die gleichen Aufgaben übernehmen. Das erhöht die Anzahl der notwendigen Rechner.
Um die ersten Millisekunden nach dem Urknall unseres Universums zu erforschen, fallen bei den Versuchen im CERN ca. 50 Megabyte Daten pro Sekunde an, die verarbeitet werden müssen. Dazu entwickeln die Wissenschaftler die unterschiedlichsten Programme, die in den Datenströme nach bisher noch nicht gefunden Kernbausteinen suchen. Dafür wären bei herkömmlicher Vorgehensweise einige tausend Server notwendig, die sich zum Teil mit Minimalauslastung langweilen und Energie fressen.
Packt man nun mehrere dieser Programme auf eine Maschine, so ist die Auslastung zwar besser, aber eine gegenseitige Beeinflussung der Analysen ist nicht auszuschließen. Vor allem bei den leistungsfähigen "Multicore"-Prozessoren und den mit reichlich Arbeitsspeicher ausgestatteten Servern, können problemlos mehrere Anwendungen auf der gleichen Hardware parallel laufen.
Bei virtuellen Computern handelt es sich im Prinzip um eine Datei, die von einem sogenannten "Hypervisor" wie das Dateisystem eines Computers behandelt wird. Diese Dateien, die einen Computer repräsentieren, könne auf jeder Hardware, auf der ein "Hypervisor" läuft, gestartet werden. Dadurch können virtuelle Server leicht zwischen verschiedenen physikalischen Maschinen verschoben werden - mittels spezieller Dienstprogramme sogar im laufenden Betrieb.
Ist ein Rechner an der Auslastungsgrenze oder eine Applikation benötigt mehr Arbeitsspeicher, wird die komplette virtuelle Maschine auf einen anderen Rechner verschoben. So können die Maschinen in den Rechenzentren optimal ausgenutzt werden. Dadurch wird Energie für die Stromversorgung und die Klimatisierung gespart und der Platzbedarf wird reduziert - ein wichtiges Argument, da diese Nebenkosten mittlerweile 50 Prozent des IT-Etats ausmachen.
Zum anderen ist es der virtuellen Maschine egal, auf welchem Rechnertyp sie läuft. So ist eine Migration von alter auf neue Hardware ohne Neuinstallation möglich.
Die großen Spieler auf dem Feld der Virtualisierung sind Marktführer vmWare, der sei acht Jahren auf dem Gebiet arbeitet, XenSource, die auf der freien Software XEN basieren und Microsoft, die Virtualisierung im kommenden Server 2008 standardmäßig anbieten werden. Darüber hinaus sind in einigen Linux-Versionen Virtualisierungsfunktionen integriert.
Die Anbieter unterscheiden sich vor allen in der Implementation des "Hypervisors". Microsoft wird die Virtualisierung in das Betriebssystem einbauen. Auf jedem Computer, auf dem Server 2008 installiert ist, stehen virtuelle Server zur Verfügung. Bei Xensource wird der "Hypervisor" mit einem Linux-Kern gebündelt, der auf dem Computer installiert wird. Die Maschine bootet dann nicht mit einem Betriebssystem, wie gewohnt, sondern mit dem Virtualisierungskern, auf dem dann nahezu beliebige Gastbetriebssysteme installiert werden können.
Noch einen Schritt weiter geht vmWare. Zusammen mit Hardwareanbietern wie Dell, IBM, NEC, Fujitsu-Siemens und HP werden Server angeboten, die den "Hypervisor" direkt in die Hardware integrieren. Sofort nach dem Einschalten steht der "Hypervisor" zur Verfügung und bootet die installierten virtuellen Maschinen. Um den Anwendern mehr Sicherheit und Freiheit zu geben, haben sich Dell, HP, IBM, Microsoft, vmWare und XenSource zusammengeschlossen und ein gemeinsames Datenformat für virtuelle Maschinen zur Normung durch die DMTF ("Distributed Management Task Force") vorgeschlagen, das OVF oder "Open Virtual Machine Format". Damit können dann virtuelle Computer auf jedem "Hypervisor" laufen, der dieses Dateiformat kennt.
Im Cern setzt man auf die freie Virtualisierungsmaschine XEN. Sie ist nach als Open Source frei verfügbar und kann von den Wissenschaftlern an ihre speziellen Bedürfnisse angepasst werden. XenSource sieht in der freien Software einen Vorteil für die kommerzielle Abteilung, weil die Menge der Entwickler, die an dem Hypervisor arbeitet, ein großes Potential zur kontinuierlichen Weiterentwicklung besitzt. Der eigentlich rein kommerziell aufgestellte Anbieter vmWare bietet seinen "Hypervisor" allerdings auch kostenlos zum Download an. Er verfügt über alle Eigenschaften der kommerziellen Version. Allerdings kann man mit der Version keine neue Virtuelle Maschine anlegen.
Neben der reinen Virtualisierung der Server im Rechenzentrum propagieren die Enthusiasten auch die Virtualisierung der Arbeitsplatzrechner. Auf einem "Hypervisor" wird hierzu Windows oder Linux als virtuelle Maschine installiert. Mit einem Fernbedienungstool greift der Anwender auf diesen Rechner zu und arbeitet daran wie an seinem Arbeitsplatz. Der Vorteil ist, dass Systemadministratoren neue Rechner schnell aufsetzen können, indem sie einfach die Dateien, die eine virtuelle Maschine repräsentieren, kopieren, einen neuen Rechnernamen vergeben und fertig ist die neuen Workstation.
Über eine Managementsoftware von vmWare kann eine Sammlung von virtuellen Rechnern einer Gruppe von Anwendern zugeordnet werden. Logt sich ein Anwender über einen Browser - also auch über Internet - ein, so kann er aus dem Angebot der Maschinen, die er nutzen darf, eine auswählen. Per gesicherten Fernzugriff kann er von jedem Ort der Welt an seinem - virtuellen Arbeitsplatz arbeiten.
Vorteile sehen die Anbieter und Systemadministratoren in der gesteigerten Sicherheit, weil die Daten nie das Rechenzentrum verlassen. Wenn ein Außendienstmitarbeiter mit seinem Notebook arbeitet, läuft er Gefahr, dass vertrauliche Daten beim Verlust seines Rechners in die falschen Hände geraten. Bei der Arbeit am virtuellen Arbeitsplatz, bei der das Notebook nur als Fernsteuerung dient, sind die Daten immer sicher im Firmensitz aufgehoben.
Für die Zukunft strebt vmWare die Ausfallsicherheit virtueller Systeme an. Wenn heute die Hardware eines Rechners versagt, sind alle virtuellen Maschinen auf dem System tot. Manuell muss das Backupsystem hochgefahren werden. Zukünftig sollen jeweils zwei identische virtuelle Maschinen auf zwei verschiedenen Rechnern parallel laufen - ein "Master" und ein "Slave". Fällt der "Master" aus, übernimmt der "Slave" nahtlos die Arbeit. Weil beide immer mit den gleichen Daten versorgt werden, ist die Datenintegrität gesichert. Ein Verfahren, das man aus dem sogenannten Clustern von Computern kennt - allerdings müssen dabei immer mindestens zwei Rechner die gleichen Aufgaben übernehmen. Das erhöht die Anzahl der notwendigen Rechner.