Freitag, 19. April 2024

Archiv


Als das World Wide Web noch ein solches war

Internet.- Ruft man von Deutschland aus eine amerikanische Internetseite auf, dann kommen die Daten nicht unbedingt über den großen Teich auf den heimischen Rechner. Oftmals ist der Weg kürzer: Sie werden aus Frankfurt übermittelt.

08.01.2011
    Manfred Kloiber: Ein Beitrag von Achim Killer. Mit ihm bin ich in München verbunden. Herr Killer, das war ja irgendwie schon ein bisschen enttäuschend – sehr lokal. Eigentlich hätte man ja annehmen müssen, Sie berichten aus aller Welt, wenn es um das Internet geht. Aber weiter als bis Frankfurt am Main sind Sie anscheinend nicht gekommen.

    Achim Killer: Nö. Und es war auch gar nicht nötig. Vor ein paar Jahren noch wäre das anders gewesen. Damals, als das World Wide Web noch ein World Wide Web war und kein HTML-basiertes Frankfurter Ortsnetz. Wenn man sich damals etwas anschauen wollte, was, sagen wir mal ein US-Unternehmen veröffentlicht hat, dann hat man sich die Dateien, aus denen die Seite bestand, tatsächlich aus einem amerikanischen Rechenzentrum in den Browser geladen. Gut, vielleicht hat der Zugangsprovider die Dateien dann gecachet, damit es beim zweiten Mal schneller geht. Aber grundsätzlich lagen sie vor Ort beim Anbieter. Heute hingegen gibt es sogenannte Content Delivery Systeme. Die verteilen ganz systematisch Dateien in Rechenzentren in aller Welt, möglichst nahe beim Nutzer. Das heißt, von den Files existieren von Anfang an mehrere Kopien, verteilt um den ganzen Globus. Und aus dem Rechenzentrum, das am günstigsten liegt, werden sie dann heruntergeladen.

    Kloiber: Und warum ist das so?

    Killer: Das liegt vor allem an der Größe der Dateien. Früher waren’s Texte und Bilder. Heute sind’s Videos. Ein Video kann schon mal ein paar Gigabyte groß sein. Und es werden sehr viele Videos heruntergeladen. Beispielsweise zwei Milliarden täglich von Youtube. Zehn Prozent der Datenmenge, die übers Internet transportiert wird, sind Youtube-Videos. Da ist es schon ganz sinnig, dass es sich bei dem entsprechenden Datenverkehr um Orts- und nicht um Transkontinentalverkehr handelt.

    Kloiber: Und das ist dann auch der Grund, warum Youtube, also Google, ein Rechenzentrum betreibt, oder?

    Killer: Das sagen die Leute, die es wissen müssen. 10.000 Quadratmeter soll es groß sein. Zum Vergleich: Der De-CIX ist auf gerade mal 60 Quadratmetern Stellfläche untergebracht. Es muss schon ein gewaltiges Rechenzentrum sein, das Google da betreibt oder wo es sich eingemietet hat.

    Kloiber: Und warum sagen Sie das so vorsichtig unbestimmt?

    Killer: Naja, über Google ist offiziell sehr wenig bekannt. Google sagt zwar, dass seine Mission darin bestünde, alle Information dieser Welt für alle zugänglich zu machen. Aber für Informationen über sich selbst möchte Google das offenkundig nicht gelten lassen. Insofern ist Google vielleicht nicht von dieser Welt. Klar ist, der Konzern ist der mit Abstand größte Rechenzentrumsbetreiber überhaupt. Experten schätzen, dass er eine Million Server hat. Das wären zehn mal soviel wie die Nummer zwei wie Intel. Intel hat 100.000.

    Kloiber: Und wie sieht es mit Facebook aus?

    Killer: Bei Facebook dürften es meiner Schätzung nach vielleicht 70.000 sein. Facebook hat 2009 schon mal seine Kennzahlen veröffentlicht. Damals ist das Unternehmen mit 30.000 Rechnern ausgekommen. Aber inzwischen ist es ja sehr gewachsen. Das Geschäft von Facebook ist auch nicht so rechenintensiv wie das von Google. Die Server von Facebook machen kaum mehr, als Files zu speichern und abrufbereit halten. Die von Google hingegen, die müssen bei jeder Anfrage riesige Index-Dateien durchsuchen.

    Kloiber: Herr Killer, warum ist denn Google so zurückhaltend mit Informationen über die konzerneigene Infrastruktur? So etwas publizieren doch Unternehmen eigentlich ganz gerne, welchen Aufwand sie betreiben, um ihre Kunden bedienen zu können.

    Killer: Das hat zum einen wohl auch Sicherheitsgründe. Rechenzentren sind Hochsicherheitsbereiche. Als mir beispielsweise der De-CIX-Direktor den Internet-Knoten in Frankfurt gezeigt hat, da war immer ein Wachmann dabei. Da gibt’s Fingerprint-Reader und Vereinzelungsschleusen, damit nicht mehrere Leute gleichzeitig und unkontrolliert ins Rechenzentrum kommen. Also, das spielt sicherlich eine Rolle. Ansonsten aber wissen Internet-Konzerne ganz einfach, wie sensibel Information ist. Und deswegen gehen sie vorsichtiger damit um als viele Surfer, die ihre Dienste nutzen.