Samstag, 20. April 2024

Archiv


Big Data in Verruf

Immer mehr Bürger stehen sogenannten Big-Data-Anwendungen kritisch gegenüber, weil Geheimdienste sie für flächendeckende Überwachung nutzen. Da auch zahlreiche Wirtschaftszweige ohne diese mächtigen Prognoseinstrumente aber nicht mehr auskommen, versucht sich die Industrie nun an einer Ehrenrettung.

Von Peter Welchering | 28.09.2013
    "Man wird Prozessoren entwickeln, die Suchvorgänge effektiv durchführen bei einer Minimierung des Energieverbrauchs. Es erscheinen neue Prozessorhersteller. Also neben den ganz bekannten tritt die ARM-Architektur auf einmal verstärkt auf. Viele Menschen nutzen diese Architektur, sie wissen es nur nicht, weil die Prozessoren in ihren Smartphones sitzen. Auch andere Hersteller, die große Kompetenz zum Beispiel auf dem Gebiet der Signalverarbeitung haben, nutzen diese Technologie, um Komponenten zu entwickeln, die im Bereich Big Data durchaus kompetitiv sein können",

    Manfred Kloiber: ... sagt Frank Baetke, Supercomputerexperte bei Hewlett Packard. Big Data verändert im Moment die Anforderungen an das Höchstleistungsrechnen in atemberaubender Geschwindigkeit. Das war eines der Ergebnisse der Big-Data-Veranstaltung der Internationalen Supercomputerkonferenz diese Woche in Heidelberg. Wie stark wird denn Big Data die Höchstleistungsrechner tatsächlich verändern, Peter Welchering?

    Peter Welchering: Sehr nachhaltig, wie man das auf Neudeutsch so schön sagt. Und das fängt damit an, dass Gleitkommaoperationen beim Rechnen von Big-Data-Anwendungen künftig keine große Rolle mehr spielen werden. Denn bei Big Data hat man es mit strukturierten und unstrukturierten Daten zu tun, also mit Texten, Bildern, Videos, Audios, Tabellen und so weiter. Und deshalb sind für diese Anwendungen vor allen Dingen Suchoperationen und Vergleichsoperationen so wichtig. Das heißt nicht, dass die Gleitkommaoperationen insgesamt unwichtig werden. Aber sie werden im Supercomputing ergänzt werden durch optimierte Prozessoren eben fürs Vergleichen und Suchen. Und wenn aus den Riesenmengen an Daten dann die auffälligen Korrelationen gezogen worden sind, wenn die statistischen Ableitungen und Wahrscheinlichkeiten vorbereitet sind und es dann auf die Simulationen ankommt, dann sind wiederum Gleitkommaoperationen gefragt. Also dann übergeben die Vergleichsoperationen an die Gleitkommaoperationen. Die Supercomputerwelt wird also durch diese Big-Data-Anwendungen sehr viel vielfältiger.

    Kloiber: Und ein zweites Ergebnis der Diskussion um Big Data, das ist auch auf der Computermesse IT& Business diese Woche in Stuttgart klar formuliert worden. Die Informatiker wollen einen gesellschaftlichen Konsens über wünschenswerte und weniger wünschenswerte Big-Data-Systeme. Eine berufsethische Debatte um deren Design müsse her.

    Beginn Beitrag:

    "Da sind wir derzeit noch in einem Zustand der Positionsfindungen. Da gibt es noch kein abgeschlossenes Meinungsbild. Richtig ist, dass über das, was jetzt bekannt wird, das, was technisch möglich ist, dass, was auch auf Seiten von Regierungen passiert, ein grundsätzliches Hinterfragen von solchen Technologien und auch von Big Data stattfindet. Ich sehe das aber nicht vorrangig im Sinne von 'da lassen wir zukünftig die Finger von', sondern eher 'wie können wir solche Anwendungen gestalten, dass sie tatsächlich konstruktiv sind und nicht destruktiv werden?'",

    sagt Thomas Mosch vom Branchenverband BITKOM. Die NSA-Affäre hat auch hier ihre Spuren hinterlassen. Immer mehr Anwender und Bürger stehen Big-Data-Anwendungen kritisch gegenüber, weil Geheimdienste sie für flächendeckende Überwachung nutzen. Und sie fragen sich zunehmend: Wie stark spionieren dann auch Unternehmen den Bürger aus, wenn sie Big Data für die Marktforschung einsetzen? Big Data erschließt ganz neue Auswertungs- und Prognosemethoden. Professor Felix Wortmann von der Universität Sankt Gallen fasst das so zusammen.

    "Neu an Qualität ist eigentlich der Detailgrad an Informationen, den wir heute erfassen können. Für den normalen Bürger sicherlich neu, dass es jetzt mit Facebook das Ganze auch sehr persönlich wird, sehr erfahrbar wird und damit natürlich auch diese ganzen Probleme rund um das Thema Privatsphäre sehr relevant werden, und man das vorher gar nicht so gesehen hat."

    Um exakt prognostizieren zu können, was Menschen mit welcher Wahrscheinlichkeit tun, müssen riesige Datenmengen erhoben und abgeglichen werden, um die wichtigen Verhaltensmuster finden und auf einzelne Fälle anwenden zu können. Felix Wortmann:

    "Je mehr Daten ich habe, desto genauer kann ich vorhersagen. Das ist einfach so. Und der Mensch ist ein stückweit auch berechenbar. Wenn ich einen Menschen kenne, etwas genauer, und von vielen Menschen Erfahrungsdaten habe, dann kann ich natürlich aufgrund von Technologie sagen, oh der scheint ähnlich wie dieser Mensch zu sein, und auf der Basis von vorhandenen Daten darauf dann explorieren und sagen, okay, so wird er sich wahrscheinlich verhalten."

    Und diese Verhaltensprognose lässt sich auf alle Gebiete anwenden. Supermärkte berechnen mit Big-Data-Methoden, wie viele frische Lebensmittel sie wann ordern müssen, damit nichts verdirbt. Big-Data-Anwendungen zeigen den Einkäufern, welche Lebensmittel in den nächsten Tagen mit hoher Wahrscheinlichkeit nachgefragt werden und welche nicht. Telefongesellschaften finden so heraus, welche ihrer Kunden ihren Mobilfunkvertrag kündigen wollen. Modegeschäfte ermitteln damit, welche Stilrichtung sich gut verkauft. Doch diese Prognose-Instrumente sind nun ein wenig in Verruf gekommen, weil Geheimdienste damit flächendeckend Menschen überwachen. Für die Wirtschaft ist das gefährlich. Sie braucht diese Instrumente und geht deshalb mit Informationsveranstaltungen und Diskussion über Big Data in die Offensive. Auch auf Computermessen, wie der Stuttgarter Messechef Ulrich Kromer berichtet.

    "Also insgesamt gesehen ist natürlich das Thema Big Data ein ganz wichtiges Element, natürlich schlägt sich das nieder, und ich kann mir auch vorstellen, dass die Unternehmen sich angesichts der medialen Transparenz dieses Themas Gedanken darüber machen. Wir haben das Thema mit fokussiert, weil es ein ganz zentrales Element der Unternehmenssoftware ist."
    Big-Data-Instrumente sind aus der Unternehmensplanung, aus der Marktforschung, aus der Logistik, aus der Forschung und zum Beispiel auch aus der Medizin bei der Prognose und Simulation von individuellen Medikationen gar nicht mehr wegzudenken. Wir müssen endlich eine breite gesellschaftliche Debatte darüber führen, welche Big-Data-Anwendungen wir wie haben wollen und welche nicht, lautete deshalb eine der meistgeäußerten Forderungen in dieser Woche. Professor Michael Feindt vom Karlsruher Institut für Technologie fast das so zusammen.

    "Bei vielen Dingen muss es einen gesellschaftlichen Konsens geben, ob man so etwas machen möchte oder nicht. Und solche Dinge können sich, das ist meine Erfahrung, auch im Laufe der Zeit ändern. Aber letztendlich müssen solche Sachen dann durch einen gesellschaftlichen Konsens abgesichert sein."