Archiv


"Das ist auch ein Hype"

Die sogenannte In-Memory-Technologie nutzt den Arbeitsspeicher eines PCs als Datenspeicher. Dadurch werden plötzlich Echtzeit-Anwendungen möglich, die vorher nicht denkbar waren - zum Beispiel in den Bereichen Unternehmensplanung oder Datenbanksuche. Aber wie funktioniert diese Technologie?

Von Peter Welchering |
    "Wie der Name schon sagt, sind In-Memory-Datenbanken natürlich in der Lage, die Daten komplett im Speicher zu halten. Das ist eine Neuerung, die heute möglich ist, weil wir sehr großen Hauptspeicher in den Computern haben und damit einen Gedanken, der in der Vergangenheit einfach Standard war, über Bord werfen können, dass der Speicher begrenzt ist. Wir haben jetzt sehr viel Speicher zur Verfügung. Wir können alle Daten im Speicher halten und können dadurch auch die Verarbeitung ganz anders gestalten. Wir können mit den Daten im Hauptspeicher arbeiten, sind viel schneller und erreichen damit eine viel höhere Leistung."

    Manfred Kloiber: Das war Ingo Breckmann, Softwaremanager bei der SAP AG in Walldorf, der die neue Datenbank-Technologie "in memory" wesentlich mitentwickelt hat. Die In-Memory-Technologie wird ja sogar von einigen Datenbankexperten als regelrechte Revolution bezeichnet. Damit seien Anwendungen möglich, von denen selbst die Visionäre unter den Datenbankern bislang nur geträumt hätten. Ist das alles nur ein Hype, oder steckt da wirklich etwas dahinter, Peter Welchering?

    Peter Welchering: Das ist auch ein Hype bei dieser In-Memory-Datenbank-Technologie. Denn IBM und Oracle und SAP wollen ja vor allen Dingen ihre Produkte an den Markt bringen und verkaufen. Und gehypt werden neue Entwicklungen nun einmal. Aber man muss auch deutlich sagen, hier schlägt tatsächlich auch Quantität in Qualität um. Also Schnelligkeit in Anwendungen, die wirklich ein ziemlich gutes Potenzial haben. Denn In-Memlory erlaubt Echtzeitanwendungen, etwa in den Bereichen eBusiness, Unternehmensplanung oder bei der Datenbanksuche. Oder aber auch bei der Prognose im analytischen Geschäft, die bisher so nicht möglich war. Denn bisher waren Auswertungs- oder Planungsläufe oder Analysen nur möglich, wenn die Datenbasis jeweils abgeschlossen wurde. Und jetzt kann im laufenden Geschäft, während neue Daten einfach erzeugt werden, damit weitergearbeitet werden und eine Analyse oder Prognose erstellt werden. Und vor allen Dingen: IBM mit der Solid DB und Oracle mit TimesTen treten hier gegen die Lösung von SAP an. Wobei ich persönlich noch einen gewissen Entwicklervorteil bei SAPs Produkt Hana sehe, die auch, was die Programmierumgebung angeht, eine relativ ausgefeilte Umgebung und Anwendung insgesamt bieteten.

    Kloiber: Wie diese Technologie genau arbeitet und welche Grundlagen der Soft- und Hardwarearchitektur sie möglich machten, haben wir für Sie zusammengefasst.


    Beginn Beitrag:

    Vor knapp drei Jahren ist die In-Memory-Datenbanktechnologie mit einer Art Pilotanwendung in ihren Grundzügen vorgestellt worden. Seit Januar 2013 gibt es eine ganze Palette von Softwareprodukten auf dieser Grundlage. War bisher die Datenbearbeitung und -pflege, auch als Transaktionsbereich bezeichnet, von der Analytik und Auswertung getrennt, so kommen bei der In-Memory-Technologie diese beiden Bereiche zusammen. Ingo Brenckmann von der SAP AG erläutert das am Beispiel der Materialplanung eines Unternehmens so:

    "Wenn Unternehmen viele Produkte haben und ein komplexes Modell, dann kann so ein Materialplanungslauf durchaus auch einmal 20 Stunden laufen. Wenn man den Prozess jetzt verkürzen kann, dann kann man den ganzen Prozess verändern. Das heißt, ich plane meinen Materialbedarf nicht am Wochenende, weil ich einen Planungslauf von 20 Stunden habe, sondern der Prozess ist sehr schnell fertig und ich kann ihn dann laufen lassen, wenn ich ihn brauche. Wenn Unternehmen in der Vergangenheit ihren Materialbedarf einmal pro Woche geplant haben, können Sie es jetzt unter Umständen einmal am Tag."

    Und das hat viele Vorteile. Denn die Unternehmen können dann sehr viel schneller reagieren und sind beim Materialeinkauf sehr viel flexibler. Auch Online-Anwendungen profitieren davon. Denn hier sind plötzlich ganz neue Echtzeit-Möglichkeiten mit im Spiel, die durch die In-Memory-Technologie erst möglich werden. Hana – High Performance Analytic Appliance heißt diese Technologie bei der SAP. Ingo Brenckmann:

    "Wir haben für einen Online-Spiele-Dienst eine Lösung implementiert, in der in Echtzeit das Spielgeschehen gemonitored wird. Das ist so ein Weltraumkampfspiel, wo also Tausende von Benutzern zugleich in Kampfhandlungen involviert sind. Die Daten aus dem Spielgeschehen werden in Echtzeit in Hana gefüttert. In Hana wird die Spielsituation ausgewertet und es können dann Kampagnen gestartet werden, um einzelne Spieler in dieser Konstellation anzusprechen und ihnen bestimmte Angebote zu unterbreiten, um ihnen in der Situation situationsabhängig weiterzuhelfen."

    Auch Online-Händler setzen solche Möglichkeiten der Kampagnensteuerung in Echtzeit gern ein. Ganz wesentlich für diese Echtzeitanforderung ist die Möglichkeit, Daten gleichzeitig zu bearbeiten und auszuwerten.

    "Ich kann also eine Anwendung in Hana-Daten schreiben lassen und die Daten in Echtzeit auswerten. Während neue Daten in die Datenbank kommen, kann ich direkt Auswertungen machen, kann es analysieren und verstehe so exakt, was in meinem Unternehmen passiert. Ich habe ein viel schnelleres Verständnis für Daten und muss sich nicht erst aus einem transaktionalen System in ein analytisches System überführen, bevor ich sie mir anschauen und analysieren kann."

    Dafür müssen die gesamten Datenbestände ständig im Hauptspeicher vorgehalten werden. Dafür sind sehr große Arbeitsspeicher erforderlich. Außerdem muss die Datenkommunikation zwischen dem Hauptspeicher und den für die Datenbearbeitung zuständigen Rechenkernen ziemlich flott sein. Große Hauptspeicher und viele Rechenkerne sind also eine wichtige Hardwarevoraussetzung für die In-Memory-Technologie. Ingo Brecnkmann rechnet das einmal vor:

    "Heute haben kleine Systeme zwei CPUs, wobei jede CPU zehn Rechenkerne hat, das heißt, sie fangen an in einer Konfiguration mit 20 Rechenkernen und 128 GB Hauptspeicher. Das ist die kleinste Konfiguration, die wir momentan anbieten. Das kann hochskalieren zu Systemen mit acht CPUs, also 80 Rechenkernen, die auf ein, zwei oder vier Terabyte Hauptspeicher operieren können. Dann sind wir immer noch in einem Server und dann können wir das Ganze raufskalieren. Dann kommt der massiv-parallele Ansatz zum Tragen, wo ich also mehrere Server nebeneinanderstellen kann. Da ist jetzt die größte Konfiguration, die wir momentan haben, 250 Server mit jeweils einem Terabyte, das heißt, wir haben eine Konfiguration von 250 Terabyte Hauptspeicher gebaut."

    Und damit kann dann zum Beispiel ein Online-Händler die Kommentare seiner Kunden auf Twitter und in anderen sozialen Netzwerken schon auswerten, während seine Produktangebote gerade erstellt werden. Oder der Stromverbrauch von New York City kann analysiert werden, während Hunderttausende von intelligenten Stromzählern terabyteweise Daten über den konkreten Stromverbrauch und die derzeitige Verfügbarkeit von Energie ermitteln.