Dienstag, 23. April 2024

Archiv


Die CPU kann singen

Jedes Instrument hat seine Zeit. Manches überlebt seine Zeit und wird zeitlos. So das Klavier, die Gitarre, die Hammond-Orgel. Hammond-Orgel? Das Zentner schwere Klangjuwel aus den 30er Jahren ist jetzt wiederauferstanden in Form eines virtuellen Instruments. Der Zentralchip - die CPU - jedes handelsüblichen Personal Computers kann die Hammond-Klänge naturgetreu wiedergeben. Als Eingabegerät ist nur ein preiswertes, stummes Keyboard nötig.

Von Maximilian Schönherr | 16.11.2003
    Neben der Aufarbeitung von existierenden Klängen - Gitarren, Schlagzeugen, Streichern, Analogsynthesizern - gibt es eine Reihe von Programmierern, die sich auf die Suche nach neuen Sounds gemacht haben und fündig wurden. Ein Beispiel ist Absynth - ein Software-Synthesizer, der alles, was es an Hardware-Synthesizern gibt, in den Klangschatten stellt. Und die Steam Pipe, ein Instrument, das am PC die Physik von Saiten und Röhren simuliert. Mit Steam Pipe kann man gigantische Glocken mit einem zarten Geigenbogen zum Schwingen bringen.

    Maximilian Schönherr hat die Programmierer dieser neuen Werkzeuge besucht und präsentiert sie hier mit einem Feuerwerk an nie dagewesenen Klängen. Und er fragt sich: Was wird von diesen neuen Klängen überleben?

    Am Anfang war das Wort.

    Dann kam lange nichts.

    Dann schallten die Flöten und Trommeln über den Erdenkreis, dann die Klaviere und Elektrogitarren. Mitte des 20. Jahrhunderts die Synthesizer, Ende des 20. Jahrhunderts die Sampler. Synthesizer und Sampler gaben Töne von sich, der PC dirigierte sie. Er selbst war stumm. Wer gute elektronische Musik machen wollte, brauchte einen kleinen Park an nicht billigen elektronischen Instrumenten, deren Kabel beim Dirigenten zusammenliefen.

    In den letzten Jahren mutierte der Dirigent langsam, aber sicher selbst zum Musiker. Synthesizer verkaufen sich schlecht, Sampler überhaupt nicht mehr. Das Herzstück handelsüblicher PCs, die Central Proccessing Unit, hat gelernt, selbst Sounds von sich zu geben. Von diesen neuen Klängen und den Menschen, die diese sie programmieren, handelt diese Sendung.

    Mit Michael Kurz, dem Mann, der die Hammondorgel liebevoll vom PC emulieren lässt. Mit Brian Clevinger, dessen virtueller Synthesizer Absynth Musiker soundbesoffen macht. Mit Stephan Schmitt, dessen Reaktor den Eigenbau virtueller Instrumente ermöglicht. Mit Peter Neubäckers, der den PC mit Melodyne zum Singen bringt. Und Yvan Grabit, dem Hardcoreprogrammierer feinster Effekte und Instrumente wie die wunderbaren Streicher von Halion Strings.

    Kapitel 1:

    Wie Michael Kurz die 50 Jahre alte, zentnerschwere Orgel des Laurens Hammond im PC nachbaute.

    Michael Kurz, Native Instruments, Programmierer von B4, FM7 u.a.

    Um den Klang authentisch nachzubilden, ist der Kern, die Funktionsweise des Instruments zu verstehen und möglichst genau in Software nachzubilden.

    Das heißt, zu allererst habe ich studiert, wie die Orgel funktioniert, also eine beschafft, aufgemacht, reingeguckt, Schaltpläne besorgt. Ich habe mit dem Oszilloskop gemessen und das am Computer angeschlossen und am Computer die Wellenformen angeguckt. Der Kern ist eigentlich ein Tonradgenerator. Das kann man sich vorstellen wie einen Elektromotor, der in einer festen Geschwindigkeit, abhängig von der Netzfrequenz, läuft, also 50 Hertz aus der Steckdose. In dieser Geschwindigkeit läuft der Motor. Und dann hat man ein Zahnradgetriebe, was diese Umdrehungen übersetzt in Geschwindigkeiten, die den Tonhöhen entsprechen. Dann hat man also einen Zahnradsatz, der sich mit einer Geschwindigkeit dreht, für den Ton C, und einen anderen Zahnradsatz, der dreht sich so schnell, dass er ein Cis ergibt, und ein D, Dis usw., sodass man dann zwölf verschiedene Übersetzungen für die verschiedenen Tonhöhen hat. Diese Räder laufen an elektromagnetischen Tonrädern vorbei, ähnlich wie bei der Elektrogitarre. Das wird dann alles zusammengemischt und gibt dann den Klang vom Tonradgenerator.

    Das Ganze dann gesteuert über eine komplexe Schaltermatrix, sodass, wenn man eine Taste drückt, die verschiedenen Tonräder, die dieser Taste zugeordnet sind, zusammengemischt werden in dem entsprechenden Lautstärkeverhältnis, wie sie von den Zugriegeln eingestellt wird. Und genauso funktioniert im Prinzip auch die Software, nur dass man statt eines Tonradgenerators mit Elektromotor und Zahnrädern einen digitalen Oszillator, der eine Tabelle ausliest, wo die Wellenform der Zahnradoberfläche gespeichert ist. Das ganze dann auch mit der richtigen Frequenz; es wird mit einer Matrix geschaltet und gemischt, auf andere Schaltungen gegeben, die dann noch ein Vibrato usw. dazumischen. Ich hab die einzelnen Teile analysiert, simuliert und konnte sehen, dass es in die richtige Richtung geht. Dann, als es fertig war, habe ich gesagt: Ah ja, das ist gut. Und dann vor allem als das rausging in die Welt und Musiker sich das angeguckt und gespielt haben und viele Rückmeldungen kamen und alle Leute sagten: Bo, geil, das ist es, worauf wir gewartet haben! - das ist dann so die Bestätigung.


    Sie hören die von Markus Kurz im PC nachgebildete Hammond B3-Orgel, gespielt über ein stummes Keyboard für 40 Euro. Kein Synthesizer, keine Steckkarte, nur ein PC.

    Bei der Nachbildung modernerer Klangerzeuger, wie etwa des ersten digitalen Synthesizers, des Anfang der 80er Jahre erschienenen Yamaha DX7, gab es für Michael Kurz nichts zum Aufschrauben.

    Bei der Entwicklung des FM7, da konnte ich auch nicht in den Chip reingucken und messen, sondern da musste ich es praktisch als eine Black Box betrachten, also als ein Gerät, von dem ich ungefähr weiß, wie es funktioniert. Aber da es ein Synthesizer ist und man die Klangerzeugung mit sehr vielen Parametern beeinflussen kann, konnte ich also hingehen und sagen, ich schalte alles ab, bis auf einen Teil. Und wenn ich mir dann nur einen Parameter angucke, was hat das für eine Auswirkung am Ausgang, dann den anderen Parameter; so kann ich dann sehr genau messen und dann simulieren, wie sich das Instrument verhält unter verschiedenen Einstellungen.


    Kapitel 2:

    Besoffen von neuen Sounds. Brian Clevingers virtueller Synthesizer Absynth

    Ich finde, Klänge auf einem billigen, handelsüblichen PC erzeugen zu können, öffnete viele Türen. Ich wollte neue Klänge hören, statt solche, die man schon kannte.

    Als ich anfing, Absynth zu programmieren, wusste ich nicht, wohin das führen, wie das klingen würde. Außerdem wollte ich, dass man das Programm sehr einfach handhaben konnte, dass es sich musikalisch anfühlt und man die Technik, die dahinter steckt, vergessen kann.


    Einer der großen Vorteile von Computern ist, dass man ein groß angelegtes Interface mit vielen Fenstern haben kann - unmöglich bei einem Hardware-Synthesizer. Ich meine, Absynth hat Tausende von Kontrollmöglichkeiten - wie sollte man damit auf einem Hardware-Synthesizer mit seinem kleinen Display und paar Knöpfchen umgehen? Ein unlösbarer Anspruch für die Designer des Geräts.

    Ein anderer Aspekt für mich als Programmierer ist, dass das Entwickeln von Klangerzeugern sehr intuitiv ist. Ich muss nicht jedes Detail von vornherein festlegen, sondern kann jederzeit so viele Eigenschaften dazu tun, wie ich will. Angenommen, ich will eine ganz sonderbare Möglichkeit haben, die vielleicht nur mich selbst interessiert, kann ich sie einfach reinprogrammieren. Dass das möglich ist, liegt daran, dass hier nur meine Zeit einfließt, und mit meiner Zeit kann ich machen, was ich will. Während bei der Entwicklung eines Hardware-Synthesizers viele Ingenieure und komplexe Fertigungsprozesse eine Rolle spielen - große Industrie sozusagen. Wenn also eine Firma wie Yamaha Optionen für einen neuen Synthesizer prüft und einer mit einem obskuren Feature daherkommt, sagen die: Tut uns leid, das führt zu weit, das können wir nicht einbauen. Softwareentwicklung lässt mir also viel mehr Spielraum. In Absynth sind eine ganze Menge seltsamer Optionen enthalten, die ich nur hineintun konnte, weil mir keiner reingeredet hat.


    Absynth präsentiert am Bildschirm zunächst einmal eine Klangbibliothek, die von braven Teppichen bis schrillen Rhythmen reicht. Oder von braven Rhythmen bis schrillen Teppichen.

    Die Grundlage sind drei Oszillatoren, die verschieden schwingen können, in der Mischung und durch reichhaltige Filter ihren Reiz bekommen und durch digitale Effekte abgerundet werden.

    Dieser Sound klingt, trockengelegt, also ohne Effekte, so. Wenn ich jetzt den Filter ausschalte, verarmt der Klang weiter. Mit den nächsten zwei Klicks reduziere ich seine drei auf nur noch einen Oszillator.

    Sowas kann auch ein Synthesizer für einige hundert oder tausend Euro. Aber bei Absynth habe ich erstens die Möglichkeit, einem Sound komplexe Hüllkurven für seinen zeitlichen Verlauf zu geben, wie sie kein Hardware-Synthesizer bietet. In diesem Beispiel hören Sie einen Klang, der rhythmisch lauter und leiser wird und zudem seine Tonhöhe nach einer am Bildschirm gezeichneten Kurve verhändert. Ich drücke nur eine Taste.

    Ein weiterer Trumpf virtueller Geräte gegenüber anfassbarer Hardware ist es, dass mich niemand hindert, mehrere Absynthe gleichzeitig zu betreiben, hier ein Bass zusammen mit einer streicherartigen Fläche.

    Dem PC ist es egal, welche Instrumente er emuliert. Hier spiele ich zu einem Rhythmus von Absynth eine Hammond-Orgel. Die Grenzen setzt die Leistungsfähigkeit der CPU. Ein für heutige Verhältnisse langsam getakteter, 1 Gigahertz-PC kann durchaus ganze Bands emulieren, ohne aus dem Tritt zu kommen.

    Jetzt wäre es nur noch schön, bei Absynth eine Taste zu finden, die mir mit Zufallsparametern einen neuen Sound strickt. Brian Clevinger:

    Einen Sound automatisch erzeugen, sodass er auch gut klingt, ist schwierig. Wir kennen Grafiksoftware, die ganz gut mit Zufall umgeht und ansprechende Bilder generiert, mit Techniken wie genetischen Algorithmen oder Künstlichem Leben. Bei all diesen Programmen kann man kreativ in den Zufallsprozess eingreifen und das Bild sozusagen führen. Wie in allen evolutionären Programmen ist der Anwender derjenige, der die Kriterien setzt, wer überlebt und wer nicht. Das ist bei Sounds ganz schwer möglich. Ein konkretes Problem, an dem ich herumknabbere, sind diskontinuierliche Parameter, etwa wenn man ein Modul ein- oder ausschaltet. Oder wenn man einer Hüllkurve einen neuen Stützpunkt hinzufügt. Wie soll das sinnvoll automatisiert werden? Kontinuierliche Parameter wie die Frequenz sind leicht zufällig herzustellen. Das ist ein Forschungsfeld für mich.

    Kapitel 3:

    Reaktor, der Instrumentenbaukasten von Stephan Schmitt

    Unsere Firma hat mit Generator und dem späteren Reaktor ihren Ruf aufgebaut. Die Produkte sind mit ganz wenigen anderen zusammen die ersten gewesen, die überhaupt solche Möglichkeiten eröffnet haben, auf dem PC Instrumente nachzubilden.

    Die Grundbausteine von Reaktor sind sehr elementar. Das sind z.B. Addierer, die zwei Signale zusammenführen und mischen, Multiplizierer, die eine Multiplikation zweier Eingangsgrößen erlauben. Es sind aber auch - etwas komplexer - Oszillatoren, bei denen man steuern kann, wie schnell die schwingen oder wie laut sie sind, wie hoch ihre Amplitude ist. Man hat Filter, die das Signal in Komponenten zerlegen und z.B. Teile des Signals dämpfen oder verstärken.

    Man kann diese elementaren Module zu Makromodulen zusammensetzen, und da hatte ich, basierend auf den aus der Literatur bekannten Verfahren, ein Anregungsmodul gebaut, das einen Rauschimpuls erzeugt, also einen Oszillator, der ein rauschartiges Geräusch erzeugt, mit einem Envelope gesteuert. Dieser Envelope bildet das Ein- und Ausschwingen, z.B. eines kurzen Blasgeräusches "Pff Pff" nach. Damit das überhaupt zu einem Ton wird, gehört ein Resonator dazu, der mit Delays aufgebaut ist. Da wird das Signal hineingespeist und kommt erst nach einer gewissen Zeit wieder heraus. Das ist also auch in natürlichen Umgebungen immer der Fall. Der Schall hat seine Laufzeit und legt in einer Sekunde 300 Meter zurück. Wenn man den Schall dann wieder zurückspeist, also reflektiert, das heißt, das Delay wieder mit seinem eigenen Eingang verbindet, also den Ausgang mit dem Eingang, dann bekommt so etwas wie ein Flatterecho. Wenn man zwischen zwei parallelen Wänden - etwa im Badezimmer - steht, hat man auch oft diesen Effekt, dass so ein Multiecho auftritt, das relativ langsam ausklingt. Wenn es schneller als beispielsweise 30 Mal pro Sekunde reflektiert wird, dann hören wir da eigentlich einen Ton, ein Dröhnen z.B. Stehende Wellen in Räumen sind auch so Phänomene, wo jemand im Badezimmer singt - die Anregung - und das Badezimmer schwingt nach. Mit Delays kann man also, wenn man sie geschickt steuert und rückkoppelt, solche Resonatoren aufbauen. Und daraus sind dann Makromodule entstanden, die dann eine weitere Verdrahtung mit anderen Makromodulen erlauben, und daraus kann man sich dann komplexere Instrumente aufbauen.

    Und das ist für uns auch ein ganz wichtiges Thema: Wir liefern die Grundlage, das Rohmaterial, aus dem noch sehr viel gemacht werden muss. Das sind Leute, die entweder unsere Kunden sind und sich mit anderen Kunden auf unserer Webseite treffen und ihre Kreationen austauschen, oder es sind Leute, die wir irgendwo gefunden haben und gesagt haben, die sind wirklich sehr talentiert, und die sollen auch mal Instrumente in unserem Auftrag entwickeln. Die letzte Instrumentenbibliothek, die wir ausgeliefert haben, ist von professionell arbeitenden Instrumentenentwicklern erstellt worden.


    Zum Beispiel Kaleidon von Mike Daliot; die Green Matrix von Erik Wiegand; Nanowave von Uwe Hönig – eine Art Nachbau des legenären PPG Wavetable Syntheziers; der Beat-Slicer von James Walker-Hall; oder Martin Brinkmanns GrainStates.

    Kann ich mit einem Baukasten wie Reaktor auch Geräusche aus der wahren Welt simulieren, etwa das Klackern einer Murmel, die auf den Tisch fällt?

    Der allgemeine Begriff für solche Verfahren ist Physical Modelling. Damit lässt sich in Software auf der Basis mathematischer Modelle die natürliche Physik der Gegenstände wie z.B. dieser Murmel und des Tisches nachbilden. Die Murmel wäre in diesem Fall so etwas wie eine Anregung, die Tischplatte ein Resonator. Das heißt, der Zusammenstoß der Murmel mit dem Resonator würde diesen Resonator zu Schwingungen anregen, die dann typisch nach Tischplatte klingen würden, weil die Tischplatte bestimmte Schwingungseigenschaften hat. Die Schwingungseigenschaften können sehr komplex sein, weil das Material nicht einheitlich ist. Das heißt, da ist dann die Frage, wie komplex ist das Modell, um die Tischplatte zu beschreiben, um einen realistischen Sound zu bekommen?

    Das Spannende am Physical Modelling ist aus meiner Sicht aber auch, dass man Modelle von nicht-realen Gegenständen erzeugen und anregen kann zu schwingen und damit in ein großes Feld der Experimentiermöglichkeiten gerät, was unheimlich viel Spaß machen kann.


    Die in Reaktor modellierte Dampfpfeife "SteamPipe" von Martjin Zwartjes

    Ja, SteamPipe ist ein Beispiel, wie in Reaktor Physical Modelling umgesetzt werden kann. Und es ist wirklich faszinierend, und ich habe selbst gestaunt. Die ersten Beispiele zum Physical Modelling hatte ich mal entworfen und den Usern zur Verfügung gestellt, und der Martin Zwartjes, der diese Steam Pipe dann aufgebaut hat, der hat sicherlich diese Grundkomponenten genommen, aber perfektioniert und, mit seinem Knowhow angereichert dann daraus etwas gemacht, was also auch mich sehr überrascht hat. Er konnte nicht nur Instrumente wie Gitarren und Streicher nachbilden, sondern auch Bläser, die überblasen werden, Metallbläser und Holzbläser - also erstaunlich flexible Modelle sind mit relativ geringen softwaretechnischen Mitteln machbar, wenn man das Knowhow besitzt.

    Die ganz neuen Versionen der PC-Instrumente schmücken sich mit dem Werkzeug der Resynthese. In gewisser Weise ist sie die Fortsetzung des Samplings. Samples, also aus der realen Welt aufgenommene Klänge, haben das Problem, dass sie, auf Tasten gespielt, umso sonderbarer klingen, je weiter man sich von der Mitte entfernt. Resynthetisiert verliert das Sample zwar etwas an Klangqualität, verhält sich aber über die Tastatur gespielt viel freundlicher. Das macht sich insbesondere bei Akkorden bezahlt. Ein Sample, auf drei Tasten gleichzeitig gespielt, fließt auseinander, während der Resynthese-Akkord sauber klingt.

    Resynthese hat mehrere Aspekte - einmal, dass man aufgenommene Geräusche in sehr freier Form wiedergeben kann, z.B. zeitlich gestreckt und gestaucht. Man zerlegt das Audiosignal in kurze Zeitabschnitte, die nachher überlappend wiedergegeben oder auch auseinander gezogen werden. Das andere ist die Zerlegung durch die Fouriertransformation in Frequenzkomponenten und resynthetisiert das Ganze durch Zusammensetzen dieser Sinusfrequenzen am Ende. Man hat dann die entsprechenden Hüllkurven der einzelnen Frequenzkomponenten; die tragen die Information über das akustische Geschehen in diesem Stückchen Musik. Frequenzbasierte Verfahren sind immernoch relativ rechenaufwändig, weil man das in 500 oder 1000 Bänder zerlegen muss.

    Beispiele bei uns sind das Spektraldelay und der Vokator, zwei Produkte, die auf Fouriertransformation basieren und die durch Anwendung optimierter Softwarebibliotheken durchaus auf durchschnittlichen Rechnern lauffähig sind.

    Natürlich ist die ständig steigende Leistungsfähigkeit der CPUs eine ganz wichtige Basis für unsere Arbeit. Die Software wird dadurch sozusagen immer wertvoller. Man konnte mit Reaktor anfangs nur wenige Stimmen bei niedrigen Sample-Raten und in geringer Komplexität reproduzieren. Inzwischen lassen sich selbst komplexe Instrumente mit 20, 30 Stimmen spielen, auch von einem Laptop, also einem 1 GHz-Prozessor.


    Kapitel 4:

    Peter Neubäckers Stimmmaschine Melodyne

    Man kann normalerweise nicht irgendwo reinsingen oder reinspielen und hat dann das Material als Noten zum Anfassen zur Verfügung und kann die dann eben anfassen und musikalisch verändern. Das heißt, normalerweise ist Audiomaterial einfach gewissermaßen gefrorenes Material, was man zwar schneiden oder mit sehr aufwändigen Verfahren in der Stimmung - Dauer oder Tonhöhe - verändern kann. Aber es hat bisher noch keinen Ansatz gegeben, wo man das Material gleich von Vornherein als das, was musikalisch gemeint ist, zur Verfügung hat, und dass ich von Vornherein gesungene Melodielinien habe, oder das, was wir jetzt sprechen, und dann kann ich jede Silbe einzeln anfassen und in der Zeit nach vorn oder hinten, also die Rhythmik, die Tonhöhe, die Formantlage, also den Stimmcharakter verändern, und das alles eben umittelbar, wenn ich es sehe und anfasse.

    Melodyne ist ein Programm, das keine eigenen Klänge erzeugt, sondern bestehende Klänge analysiert und manipuliert. Es wird damit zu einem der feinsten Instrumente für neue Stimmen. Peter Neubäcker behauptet, nicht auf Resyntheseverfahren zurückzugreifen, sondern seinen eigenen Algorithmus erfunden zu haben, der diese sonderbaren, noch im Millisekundenbereich funktionierenden Eingriffe ermöglicht.

    Kapitel 5:

    Die Algorithmen, die dahinter stecken

    Michael Kurz, der Erfinder der digitalen Hammondorgel

    Ein Algorithmus ist generell eine Vorschrift, etwas zu berechnen. Das kann sehr viel mit Mathematik zu tun haben, das kann aber auch z.B. Signalverarbeitung sein. Wie jeder weiß, kann man Musik ja in Zahlen darstellen, die dann z.B. binär auf einer CD gespeichert sind. Und wenn man die mit der richtigen Rechenvorschrift berechnet, kann man da alles Mögliche mit anstellen. Man kann jedenfalls mehr damit machen als mit jedem anderen dagewesenen Verfahren. Es ist schon ein enorm mächtiges Werkzeug zur Erzeugung und Verwandlung von Klängen.

    Das sind Streicher, die zwar auf Samples basieren, aber vom PC so intelligent verarbeitet werden, dass sich Auf- und Abstrich abwechseln und nicht ein Aufstrich dem nächsten gleicht. Die Software dazu hat Yvan Grabit geschrieben; er gehört auch zum Team von Cubase, dem meist verkauften Sequenzerprogramm, sozusagen dem Dirigenten der virtuellen Instrumente.

    Als Entwickler lernst du etwa alle 7 Jahre alles neu, das neue Konzept von C++. Das alte Cubase basierte auf anderen Sprachen wie Pascal, Assembler und C. Wir haben jetzt versucht, das auf einer neuen Basis zu entwickeln. Es steckt dahinter eine Philosphie, in objektorientierte Sprachen zu denken. Du musst schon deine Welt in kleinen Objekten definieren, und das ist nicht unbedingt einfach.

    Woher kommen die Algorithmen? Muss man sie sich alle selbst erfinden? Stephan Schmitt.

    Da ist Knowhow da, worauf man zugreifen kann. Es ist teilweise nicht frei von Rechten. Da muss man auch aufpassen. Yamaha hat eine Menge Patente auf dem Gebiet, gerade auf das, was in Stanford entwickelt worden ist. Wir haben am Anfang auch gleich eine Mahnung von Yamaha bekommen, als wir irgend etwas mit Physical Modelling angekündigt hatten, und sind dann entsprechend vorsichtig gewesen. Aber wir bieten letztendlich den Baukasten, und was die Leute dann damit bauen, ist ein zweites Thema. Und ob wir das kommerziell vermarkten, überlegen wir uns in Abhängigkeit von den Rechten, die da vielleicht drauf liegen könnten. Aber z.B. ein Instrumentendesigner, der für ein Studio Instrumente oder Algorithmen entwirft, der muss für sich entscheiden, welche Algorithmen er anwendet.

    Brian Clevinger, Programmierer des Softwaresynthesizers Absynth:

    Die Entwicklung von Filtern und Effekten ist sehr delikat. Man muss hören, überlegen, Algorithmen entwickeln. Aber der Rest von Absynth besteht im Grund aus sehr einfachen Algorithmen. Grundlegende Algorithmen zur Klangsynthese, von denen es die meisten schon in der ein oder anderen Form in den frühen 70er-Jahren gab.

    Bei Absynth wollte ich alle Vorgänge direkt zur Verfügung haben - anschalten, und sie sind sofort alle da. Es ging also mehr darum, grundlegende Prozesse zu verbinden und nicht, den großen, super-toll klingenden Algorithmus zu finden.


    Michael Kurz:

    Man kann sehr viele Sachen machen, die einfach deswegen noch nicht gemacht wurden, weil keiner drauf gekommen ist. Es ist also noch lange nicht alles ausgeschöpft, was man grundsätzlich mit Algorithmen in der digitalen Klangverarbeitung machen kann.

    Kapitel 6:

    Neue virtuelle Instrumente und wie man sie spielt

    Stephan Schmitt:

    Die Vorstellung, dass man mit Samplers alles schon erreicht hat, halte ich für einen Fehlschluss. Der Sampler kann alles reproduzieren. Aber ein Musiker triggert nicht nur eine Note, und dann erklingt sie, sondern ein Musiker gestaltet. Also die Bläser und Sänger gestalten den Ton bis ins Detail hinein. Beim Klavier ist es etwas anders: Da gestalte ich den Ton nur in der Weise, wie ich ihn anschlage, und dann klingt er selbständig aus. Dieses Gestalten innerhalb des Tones, das ist mit Samples relativ schwierig, weil sie, wie sich die Fotografie von der Malerei unterscheidet, realtiv starr ist. Sie kann noch verfremdet oder umgefärbt werden, aber sie kann sozusagen nicht aus dem Gestus des Malers heraus entstehen, wie auch ein Ton aus dem Gestus des Musikers heraus entsteht.

    Das Interface ist ein ganz kritischer Punkt bei allen elektronischen oder digitalen Instrumenten. Das ist man sicher mit der Tastatur und der Maus, wie sie ein Computer von Haus aus mitbringen - das ist eigentlich ein Büro-Interface - nicht ideal bedient. Mit der Maus kann man z.B. an der Oberfläche immer nur einen Parameter anklicken oder einen Regler bedienen, während man zehn Finger an der Hand hat und z.B. an einem klassischen Mischpult oder einem Analogsynthesizer immerhin, naja, zwei bis drei Regler gleichzeitig bedienen kann, sehr sensibel, weil die Finger auch kleinste Auflösungen im Bruchteil eines Grades bei einem Regler noch spüren und beherrschen.

    Wir arbeiten deswegen auch mit den Herstellern von Bedienhardware zusammen, die als Fernsteuerung für Musiksoftware genutzt werden kann. Da gibt es eine ganze Menge, aber wir denken, dass da noch viel getan werden kann. Wir denken, dass es auch noch ganz neue und frische Ansätze geben wird, ähnlich wie sie z.B. für die 3D-Animation gebraucht werden, wo dann Figuren im Raum bewegt werden müssen. In der Spieleindustrie oder für den Spieleanwender wird ja auch immer wieder nach noch besser zu handhabenden Geräten geforscht, und wir werden wahrscheinlich auch einiges an die Musiksoftware adaptieren können. Also im Bezug auf das Human Interface sehe ich noch eine große Zukunft.

    Und überhaupt die Gestaltung von Userinterfaces, also wie es auf dem Bildschirm aussieht. Man kann Tausende von Soundparametern zur Verfügung stellen und behaupten, das sei das Ultimative. Wahrscheinlich ist aber besser, wenn man den Leuten relativ wenige Parameter gibt, die aber klar in ihrer Funktion erkennbar sind und tief in den Sound eingreifen können, wo man aber nicht die Übersicht verliert und nicht Stunden damit verbringt, irgendwelche relativ unwichtigen Details einzustellen.


    Michael Kurz:

    Es gibt natürlich in der Synthesizerszene unter elektronischen Musikern natürlich immer das Bedürfnis, immer neue Klänge zu haben, die immer anders klingen. Aber ich glaube, der wirkliche Markt für elektronische Klangerzeuger ist eigentlich relativ konservativ. Die meisten Leute sind zufrieden damit, eine Standardpalette an Sounds zu haben, in hoher Qualität, inklusive der Standards: Also, man will ein Klavier haben, man will eine Orgel haben, paar Streicher und andere Klassiker wie Synthesizer wie Minimoog, Prophet-Sounds, das, was sich bewährt hat. Wenn man das hat, dann kommt man schon sehr weit damit, wenn man das alles in sehr hoher Qualität hat.

    Stephan Schmitt:

    Es gibt wahrscheinlich so viele neue Klänge - das Feld ist unendlich groß -, aber auch eine große Übersättigung der Hörer. Und daher muss man wahrscheinlich heute sparsam mit neuen Klängen umgehen.

    Michael Kurz:

    Ich interessere mich mehr, das Feld zu erweitern und andere Instrumentengattungen, vor allem aber andere Musiker anzusprechen, also nicht nur die Synthesizerkunden, die wir jetzt schon haben, sondern sozusagen ein größeres Feld von Menschen glücklich zu machen, mit dem Computer Musik zu machen.

    Noch ein Tipp von allen, mit denen ich sprach: Werfen Sie Ihre alten PCs nicht weg. Vernetzen Sie sie und setzen Sie sie jeden Rechner als eigenes Instrument ein. Statt einem Park an Synthesizern und Samplern haben Sie dann einen Park aus PCs, die Musik machen.

    Links zu den Herstellern der virtuellen Instrumente:

    Absynth
    Virtual Guitarist, Halion Strings
    Melodyne
    Digitale Hammond B4, FM7, Reaktor