Archiv

Künstliche Intelligenz und Menschenwürde
"Politik muss das Heft in die Hand nehmen"

Leistungssteigerung, Krankheitsbekämpfung - der Einsatz neuer Technologien verspreche viel Optimierungspotenzial, sagt die Medizinethikerin Claudia Wiesemann im Dlf. Darin läge aber auch etwas bedrohliches. Die Politik müsse Anreize und Grenzen setzen und damit die Entwicklungen menschenverträglicher machen.

Claudia Wiesemann im Gespräch mit Ralf Krauter |
    Durch Technologie geschaffene abstrakte Illustration: eine menschliche Gestalt zeichnet sich hinter einer Struktur aus Zahlen und Lichtpunkten ab.
    "Wir haben Angst, dass die extrem wichtigen Fragen unserer technologischen Zukunft ganz und gar von der Politik verschlafen werden", sagt Claudia Wiesemann. (imago/Science Photo Library)
    Ralf Krauter: Der Nationale Ethikrat ist ein von der Bundesregierung berufenes Expertengremium, das gesellschaftliche Konfliktherde ausloten soll, die sich durch Fortschritte im Bereich der Lebenswissenschaften ergeben. Bei der aktuellen Jahrestagung, die heute in Berlin begann, steht die Menschwürde im Mittelpunkt - und die Frage, in welchem Maß neue Entwicklungen in der Genetik, Hirnforschung und Computertechnik diese Grundlage unseres Gemeinwesens künftig gefährden könnten. Die Medizinethikerin Professor Claudia Wiesemann von der Uni Göttingen ist stellvertretende Vorsitzende des Ethikrates. Ich habe Sie während der Mittagspause auf der Tagung erreicht und gefragt: Welche neuen Technologien bereiten aus Sicht des Ethikrates die größten Sorgen?
    Claudia Wiesemann: Es sind zum einen die neuen Biotechnologien, wie das so schön heißt. Also das sind zum Beispiel Möglichkeiten, mithilfe der sogenannten Genschere in das menschliche Genom einzugreifen, einzelne Gene auszutauschen. Und das sind darüber hinaus auch die Informationstechnologien, die für die Medizin interessante Anwendungen versprechen, etwa, indem Prognosen über Krankheitsverläufe mithilfe künstlicher Intelligenz gemacht werden, oder indem mit solchen Techniken in das Gehirn von Menschen eingegriffen wird. Man nennt das dann Gehirn-Technik-Schnittstellen.
    Autonomie des Patienten in Gefahr
    Krauter: Da geht es also zum Beispiel um Gehirnimplantate, wo natürlich dann die Gefahr ist: Die könnten zum Beispiel von irgendjemandem gehackt werden und dann vielleicht sogar Extremitäten, Arme oder so was ferngesteuert werden. Das heißt, der Mensch würde zur Marionette werden, schlimmstenfalls.
    Wiesemann: Schlimmstenfalls ja. Auch das technische Gerät selbst könnte unter Umständen die Autonomie des Patienten untergraben. Nehmen wir nur mal an, ein solches Gerät - das man nutzen könnte, um Bewegungsstörungen zu verbessern oder auch zum Beispiel emotionale Erkrankungen zu verbessern - würde vielleicht mithilfe von künstlicher Intelligenz sehr früh herausfinden, wann diese Person jetzt in Gefahr ist, solche Bewegungsstörungen aufzuweisen. Und würde frühzeitig eingreifen mit Stimulation etwa, noch bevor es dieser Person selbst bewusst ist, dass jetzt vielleicht diese Gefahr droht. Und da übernimmt dann das Steuerungsgerät, das Stimulationsgerät plötzlich die Rolle des autonomen Entscheiders. Und wie autonom sind wir dann selbst noch in einer solchen Situation?
    "Verstehen, wie Algorithmen ablaufen"
    Krauter: Diese Frage stellt sich ja im Kontext des Vormarschs künstlicher Intelligenzsysteme generell, also nicht nur im medizinischen Kontext. Da sind ja heute schon Computerprogramme am Start, die viele Entscheidungen für uns treffen, subtil. Künftig werden das noch viel mehr Entscheidungen sein, etwa in autonomen Autos. Wie kann man damit umgehen, wenn der Mensch die Entscheidungshoheit im Alltag zunehmend aus der Hand gibt?
    Wiesemann: Es scheint ganz wichtig zu sein, dass wir besser verstehen, wie solche Algorithmen ablaufen, wie sie gesteuert werden, und wo wichtige Entscheidungsschnittstellen sind. Das muss transparent bleiben und transparent gemacht werden. Das heißt, schon beim Design solcher Algorithmen muss den Programmierern klar sein, dass sie diese Prozesse selbst nachvollziehen können, sodass man also auch am Ende gegebenenfalls eingreifen kann. Oder dass man auch im Nachhinein, in der Bewertung sagen kann, hier macht der Algorithmus einen Fehler. Beispielsweise hat er eine eingebaute Diskriminierung, weil er auf Daten zurückgreift, die selbst schon diskriminierend sind. Und solche Eingriffsmöglichkeiten des Menschen auf den Ablauf dieser Algorithmen, die müssen vorgesehen sein.
    "Verbesserungsmöglichkeiten können Ungleichheit erzeugen"
    Krauter: Wo sehen Sie denn die Parallelen, wo aber auch die Unterschiede bei diesen unterschiedlichen Themenfeldern, die da jetzt bei Ihnen in Berlin diskutiert werden: Genscheren, Eingriffe ins Gehirn und künstliche Intelligenz. Sind die ähnlich, was die Herausforderungen angeht, oder völlig unterschiedlich?
    Wiesemann: Sie sind schon sehr ähnlich, weil sie uns auf der einen Seite ja wunderbare Zukunftswelten versprechen, in denen wir frei von Krankheit sind, in denen wir unsere intellektuellen Leistungen potenzieren können durch den zusätzlichen Einsatz von Computern. Und auf der anderen Seite hat ja gerade dieses Optimierungspotenzial auch etwas außerordentlich Beunruhigendes. In welcher Hinsicht sollen wir uns denn verbessern? Welche Werte werden damit realisiert? Wollen wir tatsächlich Krankheit eliminieren und am Ende dann diejenigen, die unglücklicherweise eine natürliche Entwicklung genommen haben, ausstoßen als dumm, als nicht zur Gesellschaft gehörend klassifizieren? Wir haben mit diesen Verbesserungsmöglichkeiten wiederum ein großes Potenzial, Ungleichheit in der Welt zu erzeugen, und das muss uns durchaus beunruhigen.
    "Wir wollen in die Politik hineinwirken"
    Krauter: Nun werden all diese Fragen unter Forschern durchaus auch schon länger kontrovers diskutiert. Wo sehen Sie die Aufgabe des Ethikrates? Besteht die primär darin, diesen Diskurs auch in die Öffentlichkeit zu tragen und eine breitere Debatte anzuregen? Oder wollen Sie mehr?
    Wiesemann: Zweierlei: Zum einen nehme ich, gerade auf der Seite der naturwissenschaftlichen Forscher, ein großes Bedürfnis wahr, über die Implikationen ihrer Technik zu diskutieren und Orientierungshilfe zu bekommen. Die suchen diesen Diskurs und es braucht Institutionen, die diesen Diskurs vermitteln, die also Menschen aus allen Schichten der Bevölkerung zusammenbringen: natürlich Wissenschaftler auch aus anderen Bereichen, aus gesellschaftswissenschaftlichen Bereichen, aus dem Recht, aber auch die davon betroffenen Kranken, die Patientenorganisationen und natürlich auch den normalen Bürger. Der Ethikrat hat diese ganz wichtige Funktion, diese unterschiedlichen Gruppierungen tatsächlich auch in ein Forum zu bringen und sie zu ermutigen, diesen Diskurs miteinander zu führen, sodass jeder vom anderen lernen kann. Und dann wollen wir natürlich auch in die Politik hineinwirken und wollen die Politik dazu auffordern, diese Themen ernst zu nehmen. Wir haben im Augenblick die große Sorge, dass diese extrem wichtigen Fragen unserer technologischen Zukunft ganz und gar von der Politik verschlafen werden, weil sie sich so monomanisch mit nur einem einzigen Thema, nämlich der Flüchtlingspolitik befasst.
    Krauter: Aber hat die Politik in diesen Bereichen überhaupt Entscheidungsgewalt? Weil das ja Entwicklungen sind, die teilweise rasant voranschreiten, getrieben von großen Unternehmen auch im Hintergrund. Hat die Politik da das Heft noch in der Hand?
    Wiesemann: Sie muss das Heft in die Hand nehmen. Tatsächlich ist es im Augenblick so, dass es so aussieht, als ob einzelne Unternehmen hier die Trendsetter sind und die Entwicklung dominieren. Wir fänden es wichtig, wenn sich unsere politischen Gremien sich dafür einsetzten, einen internationalen Diskurs auch auf politischer Ebene zu führen, der diese Prozesse steuert. Und natürlich kann man auch auf nationaler Ebene mit ganz bestimmten Anreizsystemen, mit Förderpolitiken und auch mit einem gesetzlichen Rahmen dieser Entwicklung ganz bestimmte Grenzen setzen und sie dadurch auch menschenverträglicher machen.
    Krauter: Werden in diesem Sinne in Berlin konkrete Strategien erarbeitet, was wünschenswert oder zumindest diskussionswürdig wäre?
    Wiesemann: Wir erhoffen uns das als Ergebnis unserer Tagung. Und wir sind sehr froh darüber, dass wir tatsächlich einen ganz breiten Durchschnitt der Bevölkerung angezogen haben. Bei den über 600 Anmeldungen sind eben genau die Gruppierungen dabei, die ich gerade erwähnt habe - und vor allen Dingen auch ein großer Anteil von Politikern. Und das freut uns sehr. Das zeigt uns, dass unsere Botschaft angekommen ist.
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.