Montag, 17.12.2018
 
Seit 05:05 Uhr Informationen am Morgen
StartseiteForschung aktuell"Datenpäckchen mit Handlungsanweisung anreichern"22.11.2018

Konferenz Kognitives Internet"Datenpäckchen mit Handlungsanweisung anreichern"

Das Internet ist in die Jahre gekommen. Sicherheit, Nutzungskontrolle und Datenschutz waren bei seiner technischen Konzeption noch kein Thema. Für heutige industrielle Anwendungen müsse man die Datenqualität dringend in Ordnung bringen, sagte Claudia Eckert vom Fraunhofer-Institut AISEC im Dlf.

Claudia Eckert im Gespräch mit Uli Blumenthal

Hören Sie unsere Beiträge in der Dlf Audiothek
Ein Bosch-Mitarbeiter bedient im Zentralbereich Forschung und Vorausentwicklung der Robert Bosch GmbH in Renningen im Rahmen eines Pressetermins eine Industrie 4.0-Erprobungsanlage. (picture alliance / dpa / Marijan Murat)
Moderne Industrieanlagen sind hochgradig vernetzt und auf verlässliche Datenkommunikation angewiesen (picture alliance / dpa / Marijan Murat)
  • E-Mail
  • Teilen
  • Tweet
  • Drucken
  • Podcast
Mehr zum Thema

Automatica-Messe Alte Steuerungen fit machen für Industrie 4.0

Industrie 4.0 Vernetzte Anlagen vor Schad-Software sichern

Kognitive Internet-Technologien Programm der Konferenz

Uli Blumenthal: Das heutige Internet reicht für Anwendungen der Künstlichen Intelligenz in der Industrie nicht aus, hieß es heute morgen bei der Eröffnung des "Fraunhofer-Tags der Kognitiven Internet-Technologien". Das Internet, wie wir es kennen, sei als technische Infrastruktur für eine digitalisierte Produktentwicklung, für flexible Dienstleistungen und Anlagen an vielen Stellen ungeeignet; die Industrie benötige ein "neues Internet".

Prof. Dr. Claudia Eckert ist Direktorin des "Fraunhofer Clusters Cognitive Internet Technologies CCIT" und Leiterin des Fraunhofer-Instituts für Angewandte und Integrierte Sicherheit AISEC - ein neues Internet für die Industrie, warum braucht die Industrie ein eigenes Internet?

Claudia Eckert: Zunächst einmal muss man sich nicht vorstellen, dass wir alle Technologien, die wir jetzt schon kennen, einfach über Bord schmeißen und ganz was Neues machen, sondern wir wollen das, was wir jetzt schon haben, deutlich anreichern. Das ist das Neue. Warum brauchen wir das in industriellen Anwendungen, wie beispielsweise in einer Produktionsumgebung? Da müssen Daten; "in Echtzeit" nennen wir das, sehr schnell, damit die Produktionsabläufe nicht unterbrochen werden, sehr schnell verarbeitet werden. Daten müssen verknüpft werden, und vor allen Dingen brauchen wir hochqualitative Daten, denn es kann ja nicht sein, dass wir da auf Daten arbeiten, die dann zu fehlerhaften Prozessen führen. Und das heutige Internet, so wie wir es alle nutzen, da wird ja nichts gemacht um die Datenqualität wirklich in Ordnung zu bringen. Verlässlichkeit ein bisschen was; Sicherheit, Nutzungskontrolle, Datenschutz - das ist nicht integriert in die heutigen Technologien des Internets. Das ist aber etwas, was industrielle Anwendungen dringend brauchen, dass wir wissen, wer macht was mit welchen Daten, dass wir festlegen dürfen und können, wer das tun kann, und das auch kontrollierbar machen.

Bestehende Infrastruktur wird weiter genutzt

Blumenthal: Und wie wollen Sie das bestehende Internet anreichern - oder wollen Sie wirklich ein ganz neues Internet, wie man in der Bootssprache sagen würde, auf Kiel legen?

Eckert: Das will ich eben ganz klar so nicht, sondern die schon ausgerollten vorhandenen Vernetzungsinfrastrukturen, sprich Kabel, Mobilfunk, was auch immer es schon gibt, das wollen wir natürlich weiter nutzen. Aber wir werden dafür sorgen, dass Kommunikation abgesichert ist, dass die Daten in den Komponenten, wo sie Daten erheben, schon vorgefiltert, schon eine qualitative Datenerhebung erfolgt. Dass die Datenanalyse, das Herausgenerieren von Wissen aus den Daten, dass wir hierzu neue Verfahren entwickeln und die beherrschbar machen - all das sind Dinge, die wir auf die vorhandenen Infrastrukturen draufsetzen, diese dann nutzen als sagen wir mal Transportvehikel, um die Daten dann wieder von A nach B zu transportieren.

Blumenthal: Wie soll diese technische Veränderung vor sich gehen, wie muss man sich das an einem konkreten Beispiel vorstellen?

Eckert: In der Logistikbranche ist das ein Riesenthema, Daten durchgängig zu erheben über die sensitive Ware, die von A nach B zu schaffen ist, jederzeit einen Überblick zu haben, was passiert, das auch festzuhalten, sodass man das später auch minutiös protokolliert nachverfolgen kann, wo was passiert ist, wer hat was mit wem gemacht. Aber gleichzeitig dafür zu sorgen, dass nicht alle Daten jedem zugänglich sind - wir wollen ja auch Datenschutz hier direkt integriert umsetzen.

Datenschutz trotz noch mehr produzierten Daten

Blumenthal: Wenn Sie gerade diese Frage Datensicherheit und Datenschutz ansprechen, welche technischen neuen Komponenten wollen Sie denn einsetzen dabei, um gerade diese vielen Daten dann sicher zu machen? Denn Sie produzieren ja in diesem neuen Internet massenweise Daten, wie steht es dann um die Sicherung der Datensicherheit?

Eckert: Das ist eben auch ein großer Ansatz bei uns, dass wir nicht unbedingt immer alle Daten, alle Datenmassen als Rohdaten überall hin senden. Wir wollen dieses Kognitive, mit dem wir uns auseinandersetzen, also die maschinelle Intelligenz wirklich bis runter in die Sensorik bringen, das dort schon ganz ganz viel vorverarbeitet wird, dass eben nicht alle Daten dann auch als Datenpäckchen weitergereicht wird. Dass wir einfach durch Datenfilterung, durch Datenminimierung hier schon ein gutes Stück weiter sind, als wir jetzt sind, wo alle Daten immer rein gepustet werden ins Internet. Das nächste ist, dass wir Komponenten bauen, die zum einen dieses Filtern machen, zum anderen eben dafür sorgen, dass wir mit den Daten verbinden können, wer wie auf diese Daten zugreifen darf und das dann auch kontrollieren können. Das bedeutet, dass wir eben nicht nur Datenpäckchen packen und von A nach B schicken, sondern an diese Datenpäckchen auch noch zusätzliche Informationen kleben, wenn sie so möchten, mit einer Handlungsanweisung, wie mit diesen Daten umzugehen ist.

Blumenthal: Das muss ich mir so vorstellen, wenn ich eine Firma bin, die überall in der Welt bei ihren Kühlschränken oder anderen Geräten irgendwelche Sensoren untergebracht hat und diese Daten jetzt abfragen will, dass sichergestellt ist, dass ich als Firma XY nur allein darauf zugreifen kann und dass kein anderer diese Daten sieht, ist das ungefähr so das Modell hinter diesem, wie Sie es nennen, "Kognitivem Internet"?

Eckert: Das ist teilweise das Modell; wenn ich das genau nur so möchte, dann kann ich das so machen. Aber wir wollen natürlich aber auch das Mehrwertige ermöglichen, es ist häufig ja gewünscht, dass Daten mit anderen ausgetauscht wird, dass man von anderen auch Daten bekommt, sie verknüpft mit den eigenen Daten. Man will ja nicht nur in einem gesicherten eigenen Tunnel leben. Und genau das werden wir eben auch zur Verfügung stellen, solche gesicherte Datenräume nennen wir das, wo dann Daten aus unterschiedlichen Quellen gesichert zusammengeführt werden können, dass wir das auch durch technische Maßnahmen gewährleisten.

Maschinelles Lernen auch bei kleinen Datenmengen

Blumenthal: Lassen Sie mich nochmal nachfragen - wie grenzt sich dieses kognitive Internet von künstlicher Intelligenz oder von E-Learning ab?

Eckert: Künstliche Intelligenz und die Verfahren des maschinellen Lernens als Teile der künstlichen Intelligenz - das sind natürlich wesentliche Bestandteile unseres kognitiven Internets. Die Kognition rührt gerade daher, dass wir genau solche Verfahren, maschinelles Lernen, KI-Systeme entwickeln - aber zugeschnitten auf die industriellen Anforderungen. Beispiel: Wir haben eben im industriellen Umfeld nicht unbedingt diese riesigen Datenmengen, die ein Google, ein Facebook ansammelt über seine Consumer. Da gibt es wenige Datensätze, und wir wollen aber trotzdem aus solchen Datensätzen neue Erkenntnisse gewinnen. Wir wollen Entscheidungen treffen, Empfehlungen geben können, Planungen wollen wir in den Produktionsstätten umsetzen können - wie mache ich das, wenn ich nur wenige Daten habe, aber die klassischen maschinellen Lerntechniken brauchen riesige Datenmengen? Und da kommen wir und sagen, wir entwickeln neue Methoden, indem wir kleine Datenmengen verknüpfen beispielsweise mit menschlichem Expertenwissen, um dann aus "Small Data" "Smart Data" zu machen. Auf die einzelnen Komponenten einer Maschine in der Produktion, in einem Sensor im Auto, in Sensoren im Heimumfeld - überall sollen diese Komponenten in der Lage sein, selbstständig, weitestgehend selbstständig schon Vorentscheidungen zu treffen.

Das könnte sie auch interessieren

Entdecken Sie den Deutschlandfunk