Mittwoch, 24. April 2024

Archiv

Künstliche Intelligenz
Musik aus der Maschine

Computerprogramme können ganze Musikstücke komponieren, doch das hört man den Werken oft an. Deshalb setzen viele Komponisten die Künstliche Intelligenz eher als Hilfsmittel ein. Wenn Mensch und Maschine zusammenarbeiten, kann Erstaunliches entstehen.

Von Julian Ignatowitsch | 19.10.2016
    Hände tippen auf einer Computertastatur.
    Schon heute empfehlen Algorithmen Musik nach unserem Geschmack. (imago/STPP)
    "Corso rocks!" – ein bisschen hört sich das wie ein Soundtrip in die Video-Spielhölle der 80er-Jahre. Ein Computer hat dieses Lied komponiert, genauer der Twitter-Bot LnH. Dazu musste ich lediglich einen Song-Titel wählen, die gewünschte Musikrichtung angeben sowie Tempo und eine Zufallskomponente bestimmen. Schon war mein Rock-Stück bei 160 Beats per Minute fertig.
    Über die musikalische Qualität lässt sich sicher streiten. Aber: Wie funktioniert das eigentlich, dass Künstliche Intelligenz ein ganzes Musikstück komponiert?
    Matthias Althoff: "Der große Vorteil von Künstlicher Intelligenz ist ja, dass die Algorithmen, die in diesem Bereich entwickeln werden, sich auf viele Anwendungsbereiche anwenden lassen. Musik ist da ein neuer Bereich, der stärker im Kommen ist. Andere Bereiche sind zum Beispiel Gesichtserkennung oder Schachwettbewerbe."
    Matthias Althoff ist Professor an der TU München und ein Experte im Bereich Künstliche Intelligenz (KI). Er erklärt, dass ein Computer, wenn man ihm eine Datenbank voll mit Musik zur Verfügung stellt, diese mit Hilfe eines Algorithmus lesen, aufteilen, abändern und neuzusammensetzen kann:
    "Zum Beispiel, dass die Töne höher oder tiefer liegen, dass die Dauer der Töne variiert wird. Dadurch ergibt sich ein neues Lied, dieses kann man wieder vom Rechner bewerten lassen, indem man maschinelles Lernen anwendet. Und daraufhin werden tausende neue Stücke generiert und dann wieder neu kombiniert – und das wiederholt sich dann ständig."
    Dass Computer und Elektronik in der Musik verwendet werden, ist natürlich nicht neu, dass Maschinen aber ganze Soundbetten komponieren schon. Wie weit die Technologie schon ist, das zeigt ein gerade veröffentlichtes Projekt des französischen Musikers Benoît Carré (in Zusammenarbeit mit Sony). Den eigentlichen Song beziehungsweise das sogenannte Leadsheet hat ein Musikprogramm alleine geschrieben, Carré steuerte Lyriks und Gesang bei und produzierte etwas nach.
    "Daddy’s Car", so der Titel, hört sich an wie eine Mischung aus Beatles, Beach Boys und neuerer Indie-Pop-Musik. Im nächsten Jahr soll ein ganzes Album erscheinen. Eine Weltneuheit! Solche Kollaborationen von Mensch und Maschine könnten in Zukunft die Regel statt die Ausnahme werden, meint auch Experte Althoff.
    "Die Algorithmen werden besser, die Datenbasis wird besser, das maschinelle Lernen wird besser. Also es wird sicherlich zunehmen. Und auch aus dem Grund, weil die jüngeren Komponisten der Technik gegenüber aufgeschlossener sind. Wenn man zum Beispiel eine Blockade hat, könnte ein Programm einen Denkanstoß geben für Songwriter."
    Ein mögliches Szenario in der Zukunft sieht also so aus: Ich laufe auf der Straße, habe gute Laune, die Sonne scheint. Den passenden Sound dazu liefert auf Nachfrage ein Computer. Durchaus denkbar, wo uns doch schon heute Algorithmen Musik nach unserem Geschmack empfehlen.
    Aber was ist mit Musik als kollektivem Erlebnis, als Live-Event, als Gesprächsthema? Den Künstler als Persönlichkeit und Identifikationsfigur wird ein Computer wohl auch in absehbarer Zeit eher nicht ersetzen können. Und das ist auch gut so.