Schülerdaten

Das gläserne Klassenzimmer

04:20 Minuten
In einem Wohnzimmer sitzt ein Mädchen mit Headset und Laptop am Tisch, im Hintergrund ist ein weiteres Kind auf einem Sofa zu sehen. Neben beiden liegen aufgeschlagene Schulbücher.
Digitales Lernen wird als Zukunftsziel ausgegeben. Dabei muss aber über ethische Grenzen von künstlicher Intelligenz gesprochen werden, findet Publizist Christian Füller. © dpa / Jochen Tack
Ein Kommentar von Christian Füller · 10.11.2020
Audio herunterladen
Lernsoftware soll demnächst jedem Schüler und jeder Schülerin maßgeschneidert fördern. Dazu werden allerhand Daten gesammelt. Höchste Zeit, über Chancen und Risiken der Technologie zu reden, findet der Publizist Christian Füller.
Als Deutschlands oberste Schulministerin sich jüngst mit der Kanzlerin traf, tauchte ein ganz neuer Terminus auf. Die Präsidentin der Kultusminister, Stefanie Hubig, sagte nämlich, dass sie über "intelligente tutorielle Lernsysteme" sprechen wolle.
Ein "intelligentes tutorielles Lernsystem", das ist kein Raumschiff, sondern damit ist gemeint, digital erhobene Daten von Schülern fürs Lernen zu nutzen – und zwar automatisiert. Besser bekannt ist das als künstliche Intelligenz (KI).
Es ist kein Zufall, dass dieser Begriff beim Bildungsgipfel gar nicht fiel. Die Aversion der Bürger dagegen ist nämlich groß. Künstliche Intelligenz in der Schule assoziieren sie mit Brave New World und totaler Überwachung. Ganz falsch ist diese Vorahnung nicht.

Lernen in digitalen interaktiven Umgebungen

Die Bildungsrepublik befindet sich am Scheideweg. Bis März diesen Jahres, als die Schulen wegen des Coronavirus schließen mussten, war an die praktische Anwendung künstlicher Intelligenz gar nicht zu denken. Denn Daten von Schülern wurden an staatlichen Schulen praktisch nicht erhoben. Das ändert sich nun: Deutschlands Schulen stehen vor dem Eintritt ins digitale Zeitalter.
Lernmanagementsysteme und Schulclouds verbreiten sich schnell, bald hat jedes Kind ein Endgerät. Das Sammeln jedes Klicks, jeder Eingabe, jeder Wissensbewegung, die Schüler auf einer Lernplattform hinterlassen, beginnt genau: jetzt.
Schüler werden sich also nicht mehr auf Arbeitsblättern verewigen, sondern sie lernen bald in digitalen interaktiven Umgebungen, rechnen, schreiben, argumentieren und werden dabei massenhaft Daten produzieren. Pädagogisch wertvolle, aber nicht nur.
Mit diesen Daten wird gearbeitet werden. Die ersten Versuche sind allesamt von einem grundguten, im Kern reformpädagogischen Ansatz geprägt: Das Lernen soll so individuell wie möglich werden. Die Maschine soll Wissenslücken erkennen und sinnvolle nächste Lernschritte vorschlagen.
Die in Kooperation mit Reformschulen entstandene Lernplattform Scobees etwa möchte Schülern einen maßgeschneiderten individuellen Lernanzug bereitlegen – in acht unterschiedlichen Niveaus. Die App Sdui wiederum hilft Pädagogen: Sie könnte perspektivisch "jedem Lehrer völlig automatisiert genau die Tipps und Methoden an die Hand geben, die ihm helfen, den bestmöglichen Unterricht zu machen".
Eines der am meisten gehörten Argumente für KI-gesteuertes Lernen lautet: Chancengleichheit. Endlich lasse sich die offene Wunde der deutschen Schule gewissermaßen elektronisch schließen – die Benachteiligung von Kindern aus migrantischen oder aus Hartz-IV-Haushalten oder solcher mit Handikaps. Die Universitätsschule in Dresden plant zum Beispiel sehbehinderte Kinder mit KI am Lernen teilhaben zu lassen.

Liefert der "große Lernbruder" nur Ideen?

Alle KI-Befürworter, die sich derzeit zu Wort melden, betonen: Die künstliche Intelligenz mache nur Vorschläge. Letzte Entscheidungsgewalt über das Lernen verbleibe bei Schülern und Lehrern. Hier aber scheiden sich die Geister.
Die Vorstellung, dass der große Lernbruder nur Ideen liefert, halten Kritiker für naiv. Ihr Argument lautet: Wenn ein Algorithmus vor Antritt einer Klasse auch nur den Lernstand diagnostiziert und Schülern Nachlernaufgaben zuweist, greife er bereits maschinell in die Entwicklung des Einzelnen ein. Vollends aus den Händen gleitet der Bildungsprozess, wenn die KI andere als Lerndaten mit einbezieht: Bibliotheksbesuche, automatisch erhobenes Einkaufsverhalten, Likes und Kommentare in Sozialen Medien und so weiter. Erfahrungen vernetzter Campusse von US-Unis und gläsernen chinesischen Schülern, deren Stimmung videokontrolliert wird, zeigen, dass Unmögliches möglich wird.
Was wir in "intelligenten tutoriellen Systemen" tun oder lassen sollten, gehört also auf die Tagesordnung eines öffentlichen Diskurses über Möglichkeiten und ethische Grenzen von künstlicher Intelligenz im Klassenzimmer.

Christian Füller ist Buchautor und Journalist. Er hat unter anderem veröffentlicht: "Muss mein Kind aufs Gymnasium?" (Duden 2018) und "Die Revolution missbraucht ihre Kinder" (Hanser 2015). Er schreibt für "Spiegel Online", "FAZ", "Welt am Sonntag" und bloggt als Pisaversteher.

© Quelle: privat
Mehr zum Thema