Sonntag, 25.10.2020
 
Seit 09:30 Uhr Essay und Diskurs
StartseiteComputer und KommunikationWarum Big Data jetzt Smart Data wird 27.09.2014

Analyseverfahren Warum Big Data jetzt Smart Data wird

Die Fachleute auf der Jahrestagung der Gesellschaft für Informatik beobachten eine Trendwende: weg von Big-Data-Analysen und hin zu Smart Data. Letzteres erhebt von Anfang an nur jene Daten, die für einen bestimmten Zweck auch tatsächlich benötigt werden. Von der Industrie und der Medizin wird dieser Ansatz bereits vielversprechend genutzt.

Von Peter Welchering

Die Rücklichter eines fahrenden Autos auf der Karl-Marx-Allee in Berlin. (picture alliance / dpa / Soeren Stache)
Die Bordsysteme von vernetzten Autos nutzen Smart-Data-Algorithmen, um dem Fahrer Assistenzfunktionen in einem sehr komplexen Umfeld anbieten zu können. (picture alliance / dpa / Soeren Stache)
Weiterführende Information

Sachbuch über Big Data - Gefährliche Datenfusion
(Deutschlandradio Kultur, Buchkritik, 15.09.2014)

Big Data - Suchen, sammeln, spionieren
(Deutschlandradio Kultur, Lesart, 20.08.2014)

Datenanalyse - Big Data in der Kulturgeschichte
(Deutschlandfunk, Forschung aktuell, 01.08.2014)

Data Mining - Die Berechnung der Welt. Von der Weltformel zu Big Data
(Deutschlandfunk, Wissenschaft im Brennpunkt, 13.07.2014)

Manfred Kloiber: Rund 1.000 Computerwissenschaftler trafen sich diese Woche in der Stuttgarter Universität zur Jahrestagung der Gesellschaft für Informatik. Und diese GI-Jahrestagung hat sich schwerpunktmäßig mit Big-Data-Anwendungen, ihren Chancen und Risiken beschäftigt. Das Thema lag nicht einfach so in der Luft, sondern es war gesetzt: Denn auf der GI-Jahrestagung 2013, vor einem Jahr also, die unter dem starken Eindruck der NSA-Spähaffäre stand, haben die Informatiker sich selbst klare Vorgaben gemacht: Wir müssen uns mit dem Schutz der Metadaten, wie die NSA sie weltweit erhebt, und dem Missbrauch viel stärker auseinandersetzen. Und das setzt ein Konzept mit dem Umgang von Big Data voraus. Ist dieses Konzept auf der Jahrestagung in Stuttgart präsentiert worden, Peter Welchering?

Peter Welchering: Es ist in Angriff genommen worden, und die Informatiker sind mit der Bestandsaufnahme recht weit gekommen. Sehr klar ist formuliert worden, dass Big-Data-Analysen den Gesetzen des Dual Use unterliegen, also: 89 Megatonnen Lebensmittel einsparen, aber auch Verhalten von Menschen prognostizieren. Welche Big-Data-Analysen diese Gesellschaft will und welche nicht, darüber haben wir keinen Konsens. Das liegt auch daran, dass die Politik zurzeit an einem solchen Konsens nicht interessiert ist. Die Politik will sich und natürlich auch den Sicherheitsbehörden alle Möglichkeiten offenhalten, die Big Data bietet. Das geht nicht, sagen die Informatiker. Und sie fordern zweierlei: Erstens diesen gesellschaftlichen Konsens, zweitens, dass die Politik dem sich gerade massiv verändernden Paradigma von Big Data in der industriellen Anwendung Rechnung trägt. Trend: Big Data war gestern – Smart Data heißen die neuen Analyseverfahren.

Kloiber: Dieser Paradigmenwechsel hin zu Smart Data hat die GI-Jahrestagung erheblich geprägt. Und der Smart-Data-Trend erfordert neue Analyseverfahren, aber vor allen Dingen auch eine sorgfältige Abwägung der Frage: Welche Daten brauchen wir für welche Analysen wirklich. Big-Data-Verfahren wurden nach dem Prinzip realisiert: Sammeln wir zunächst einmal die Daten, und dann schauen wir, welche Erkenntnisse wir mit welchen Analysen dabei heraus bekommen. Smart Data hat einen anderen Ansatz. Es geht darum, die analyserelevanten Daten am Ort ihrer Entstehung zu identifizieren. Und das wird schon heute industriell umgesetzt.

 

Beginn Beitrag: 

 

Beim schwäbischen Maschinenbauer Trumpf in Ditzingen hat man mit solchen Smart-Data-Anwendungen bei Werkzeugmaschinen schon gute Erfahrungen gemacht. Klaus Bauer leitet die Grundlagenforschung bei Trumpf und erläutert Smart Data für Werkzeugmaschinen so.

"Alles, was prozessrelevant ist, muss auf der Maschine stattfinden, einfach aus Echtzeit-Ansprüchen, auch aus den Bedürfnissen des Kunden. Er hat gar nicht das Interesse, alles in die Cloud zu verlagern, das heißt, er brauchte die Kontrolle darüber, was hochgeht. Ud wenn wir jetzt alles raus sammeln würden, ist die Infrastruktur einfach nicht so weit. So eine Anlage kann am Tag dann schon einmal ein Terabyte Daten erzeugen. Das kriegt man über normale Netze bezahlt nicht hoch, das heißt, die Vorverarbeitung, die Selektion und die geeigneten Daten aufbereitet übertragen, das wird der Erfolgsfaktor der nächsten Jahre sein."

Auch bei Bosch in Stuttgart arbeiten die Entwickler an Smart-Data-Konzepten für die Fabrik der Zukunft. Der Informatiker Peter Moll von Bosch stellte auf der GI-Jahrestagung gleich mehrere Anwendungsszenarien für Smart Data vor – von Einspritzsystemen über Waschmaschinen bis hin zum autonom fahrenden Pkw.

"Wir sehen insbesondere im prädiktiven Umfeld den Einsatz in der Industrie 4.0. Wir haben heute im Fertigungsbereich Systeme im Einsatz, wo wir aus Qualitätsinformationen bereits in der Lage sind, Voraussagen für die Verfügbarkeit und Qualität unserer Erzeugnisse zu treffen. Dazu brauchen wir spezielle Algorithmen, und dafür brauchen wir spezielle Mitarbeiter, die sich sowohl auf dem Anwendungsumfeld, auf dem Produktionsumfeld, wie auch in der IT sehr gut auskennen."

Beim vernetzten Auto werden schon heute Big-Data-Analysen angewandt, um beispielsweise Staus vorherzusagen. Doch das ist erst der Anfang. Die Bordsysteme des Autos nutzen Smart-Data-Algorithmen, um dem Fahrer Assistenzfunktionen in einem sehr komplexen Umfeld anbieten zu können. Allein die Empfehlung, langsamer zu fahren, weil sich einige Kilometer entfernt gerade eine Nebelwand aufbaut, setzt ein sehr datenintensives Verfahren voraus. Doch bei Prognosen und Ratschlägen wird es nicht bleiben:

"Das mündet im autonomen Fahren. Wir sehen auf einem Zeitfenster von etwa zehn Jahren, dass unsere Fahrzeuge autonom zumindest über die Autobahn fahren werden. Viele Funktionen davon werden über den Backend gesteuert, und das bedeutet, dass wir auch hier deutlich höhere Verfügbarkeit unserer Systeme benötigen als wir das heute an Bord im Fahrzeug bereits implementieren können."

Auch die Medizin profitiert von Smart Data

Außentemperatur und Feuchtigkeit, Fahrbahnbeschaffenheit, vorausfahrende und folgende Fahrzeuge, Radardatenauswertung und Videoberechnung, Navigationsdatenanalyse und die ganzen Betriebsdaten des Fahrzeugs müssen von den unterschiedlichen Bordsystemen genau analysiert werden. Doch nur die Analyseergebnisse tauschen die einzelnen Bordsysteme untereinander und mit anderen Fahrzeugen oder einer Verkehrsleitstelle aus. Jedes Steuerungssystem im Auto muss also aus den Big-Data-Mengen die smarten Daten herausanalysieren, damit das Auto ohne Eingreifen des Fahrers sicher über die Autobahn rollen kann.

Auch in der Medizin will man von solchen smarten Daten profitieren, um beispielsweise für mehr Patientensicherheit im Operationssaal zu sorgen. Martin Kasparick von der Universität Rostock erforscht, wie smarte Daten hier helfen können.

"Dann  werden wir in der Lage sein, Assistenzsysteme zu entwickeln, die alle Daten berücksichtigen, und die dann natürlich auch Prädiktion betreiben kann im Sinne, dass wir dann viel früher in der Lage sind, Gefahrensituationen für die Patienten zu erkennen als es der Operateur oder Anästhesist einfach nur mit Blick auf seine Parameter alleine könnte." 

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk