Archiv


Virtuelles Sparschwein

In Sachen Wirtschaftlichkeit von IT-Konzepten schwirren im Moment zwei Begriffe durch die Branche, die ebenso vielversprechend wie kryptisch sind: Virtualisierung und Cloud-Computing. Sie haben miteinander viel zu tun und mit der Tatsache, dass durch das Internet gewaltige Rechenkapazitäten kreuz und quer auf der Welt entstanden sind.

Heinz Schmitz im Gespräch mit Manfred Kloiber |
    Manfred Kloiber: Diese Woche fand zu diesen Thema in Cannes die Messe VMWorld statt. Heinz Schmitz war dort, was ist das für eine Veranstaltung?

    Heinz Schmitz: Die VMWorld ist eine Messe, die sich alleine um die Virtualisierung kümmert, also um die Simulation von Rechnern im Rechner - ein Trend, der ja in den letzten Jahren unheimlich zugenommen hat, weil die Hardware immer leistungsfähiger geworden ist und meisten Rechner gerade mal zu 10 Prozent ausgelastet sind und man eben mehrere virtuelle Rechner auf eine Hardware packen kann.

    Kloiber: Im Mittelpunkt der Virtualisierung steht jetzt auch der virtuelle Arbeitsplatz. Was steckt dahinter?

    Schmitz: Man kann auf einem leistungsfähigen Server heute bis zu 100 virtuelle Arbeitsplätze unterbringen und der Vorteil ist, egal wo man ist, wenn man sich einwählt, hat man immer seine Arbeitsplatzumgebung. Also wenn man unterwegs ist und hat einen DSL Zugang, kann man dann virtuell auf seinen Arbeitsplatzrechner und man hat dann dort seine Programme, seine Daten wie gewohnt zur Verfügung. Den Firmen ist das natürlich ganz recht, weil die Daten sicher sind. Geht ein Notebook mal verloren, sind die Daten eventuell weg und so sind sie im Rechenzentrum und werden vernünftig gesichert. Eine Sache wurde dort allerdings diskutiert, wenn man mit einem Notebook unterwegs ist, zum Beispiel im Flugzeug arbeiten möchte, hat man nicht unbedingt Zugriff auf seine virtuelle Maschine. Und deswegen gibt es ein Konzept, dass man die Daten der virtuellen Maschine - das ist im Prinzip eine große Datei - dass man die auf das Notebook herunter lädt und dann damit im Flugzeug oder wo auch immer weiterarbeiten kann. Und wenn man wieder verbunden ist, werden die Daten wieder zurück an das Rechenzentrum übertragen. Eine solche Maschine ist etwa 4 Gigabyte groß, dort werden also immer riesige Datenmengen bewegt, und das dauert auch bei einer DSL-Leitung. Deswegen gibt es Algorithmen, die nur die Änderungen der Daten übertragen.

    Kloiber: Sie haben ja eben das Konzept von Virtualisierung erklärt, auf einem Server laufen mehrere virtuelle Maschinen. Wo die dann sind, ob sie über das Internet angebunden sind oder wie auch immer, das ist dann ja egal. In diesem Zusammenhang kommt dann ein zweites in der Branche heiß diskutiertes Stichwort auf: das so genannte Cloud-Computing. Wie spielt das zusammen?

    Schmitz: Dahinter steckt die Idee, dass man virtuelle Maschinen hat, die irgendwo im Rechenzentrum laufen und man weiß gar nicht mehr, auf welchem Server – dass man einen Mechanismus hat, der das automatisch organisiert und die Maschinen verschiebt, je nachdem dorthin, wo sie gebraucht werden. Mittlerweile geht man noch weiter und sagt, ok, ich habe ja nicht nur eine interne Cloud, eine interne Wolke, sondern eine externe – also irgendwelche Rechenleistung, die von Dienstanbietern über das Internet angeboten wird. Wenn ich dann zum Beispiel mal eben ein paar 100 Server brauche, kann ich sagen, ich baue mir jetzt kein Rechenzentrum auf, sondern ich miete mir das von einem Provider. Auch da muss man dann schauen, dass man nicht die ganzen Maschinen immer überträgt, das wären dann ja wieder große Datenmengen. Auch da gibt es dann intelligente Algorithmen, mit denen man dann wirklich nur die Änderungen überträgt.

    Kloiber: Heißt das denn, wenn ich mich mit meinem Unternehmenslaptop irgendwo anmelde und meine virtuelle Maschine starte, dass sie dann meinetwegen heute in einem Rechenzentrum bei der Telekom gehostet wird und morgen in einem Rechenzentrum von irgendeinem anderen Betreiber?

    Schmitz: Entweder in der Firma selber oder extern oder wird mal in Indien gehostet oder in den USA, je nachdem, wo dann gerade Rechenplatz verfügbar ist. Interessant sind diese Verbindungen von Internal und External Clouds auch im so genannten Desaster Recovery Mode. Das heißt, wenn ein Rechenzentrum ganz ausfällt, wenn ich noch vorher meine virtuellen Maschinen auch irgendwo anders extern zur Verfügung habe, brauche ich die nur da hochzufahren, wenn der Strom zum Beispiel ausfällt und die Hardware einfach nicht erreichbar ist oder die ganze Netzwerkinfrastruktur ist weg.

    Kloiber: Worin liegt denn der Vorteil für etwa ein mittelständisches Unternehmen, was 100 bis 200 Leute mit Rechnern versorgen muss, im Einsatz solcher Technologie?

    Schmitz: Mehrere Sachen: einmal die Workstations, weil die dann zentral gehostet werden und sind immer aktuell, auch wenn man Außendienstmitarbeiter hat. Und in dem Rechenzentrum ist das natürlich so, dass man sich auf Notfälle vorbereiten kann, jetzt nicht nur, dass man den Strom spart, sondern dass man auch im Zweifelsfall, wenn irgendetwas schief geht, man direkt weiterarbeiten kann. Denn ein Ausfall, gerade bei Handelsbetrieben, von ein bis zwei Tagen kann den Ruin der Firma bedeuten. Und deswegen sind solche Konzepte extrem wichtig.