Manfred Kloiber: Gerd Pasch, Sie sind sie auf der Tagung der Audio Engineering Society AES in Wien und stehen mitten zwischen Mikrofonen, Lautsprechern, Mischpulten und Übertragungsgeräten, all jenen Gerätschaften, die in Studios, Funkhäusern und Veranstaltungshallen für den "Guten Ton" sorgen. Welche Rolle spielt auf der AES die Digitalisierung?
Gerd Pasch: Fast keine mehr, sie ist mehr oder weniger abgeschlossen. Hier in Wien wird schon trimedial gedacht. Audio vermengt sich auf Datenbanken mit Fernsehen und Internet. Das pure Tonsignal von einst ist heute ein Datensatz mit Soundfile und Metadaten angereichert. Zusatzinformationen begleiten den Ton von der Aufnahme bis zum Empfänger. Sie geben Auskunft über Qualität, Auflösung, Zeit und Genre, zeigen ob sich Mono-, Stereo- oder Heimkino-Surround-Sound in der Datei befindet. Die großen Herausforderungen für die Tonmeister und Ingenieure ist die Integration ins Internet und das damit verbundene Datenmanagement. Ziel der bisherigen Entwicklung war es, mit möglichst geringen Datenmengen höchste Tonqualität zu speichern und übertragen zu können, zum Beispiel den Inhalt einer Audio CD auf einen Daumennagel großen Chip zu bringen oder Surround-Sound im schmalbandigen Mobilfunk zu verschicken. Das haben die Toningenieure mit 64 Kilobit pro Sekunde mit dem Westentaschenkino bis an die zur Zeit erkennbaren Grenzen ausgereizt.
Kloiber: Wenn wir nicht mehr vom Tonsignal, sondern nur noch vom Soundfile reden, wie ist denn dann der Workflow, die Handhabung des Datenflusses, heute zu sehen?
Pasch: Der Tonmeister ist heute auch Medieninformatiker. Bei der Aufnahme bereits bekommt das digitalisierte Schallereignis die eben genannte Metadaten. Diese Zusatz-Informationen begleiten das Soundfile durch entsprechende Datenmanagment-Systeme, Editoren zur Bearbeitung, Kompressions- und Kodierverfahren. Auch eine Ablaufsteuerung, die aus dem Produkt ein Programm macht, greift auf diese Metadaten letztendlich zurück. Und mehr oder weniger in Echtzeit werden die Datenströme so umgewandelt, wie sie der Nutzer empfangen will. Dem Tonmeister obliegt hier die Qualitätskontrolle – und das gestuft nach Ausspielweg. Ein Audiocast im Internet ist anders zu bewerten als eine Klassik-Sendung im Radio oder eine DVD-Audio Produktion für höchsten Hörgenuss mit rauschfreiem Signal. Hier auf der AES zeigen einige Systemhäuser Komplett-Lösungen für bi- und tri-mediale Produktionen. Bilder, Töne, Texte, gar Videos in jeder Qualitätsstufe liegen in einer Datenbank. Darauf greift ein Redakteur oder Producer mit seinen PC-gestützten Werkzeugen zu, stellt daraus einen Programmablauf. Für Radiogeräte mit Display, wie beim DAB oder Handy werden parallel auch darauf visuelle Informationen geschickt. Das ist heute schon quasi-Standard im Internet und den WEB-casting-Angeboten so wie on-demand-Diensten, also nicht-linearem Radio und Fernsehen.
Kloiber: Wie sieht es denn mit einer Archivierung solcher Soundfiles aus?
Pasch: Nach wie vor ist das ein grosses Fragezeichen bei der Langzeit-Archivierung. Unschlüssig sind sich die Experten in der AES über das Format, datenreduziert oder nicht, und wenn mit welchen Auflösungen. Klassik-Aufnahmen werden sicherlich anders betrachtet als Originaltöne aus Bundestagsdebatten. Heute stehen für den Porgrammaustausch Gigabit-Netzwerke zur Verfügung und Audio- und Video-Speicher im Petabyte-Bereich. Doch die heutige Produktionsumgebung in den Funkhäusern und Studios wird erst zögernd darauf umgerüstet. Wichtig ist die Dokumentation, die Beschriftung der Sound-Dateien, sodass die Daten auch wiederauffindbar werden. Phonetische Suchmaschinen sind inzwischen verfügbar und werden auch eingesetzt, die auf ein Stichwort hin jeden O-Ton-Schnipsel im Archiv wieder finden. Ein hier in Wien vorgestelltes Verfahren schafft 10.000 Stunden Audio- und Videodaten in nicht weniger als zwei Minuten zu durchforschen.
Gerd Pasch: Fast keine mehr, sie ist mehr oder weniger abgeschlossen. Hier in Wien wird schon trimedial gedacht. Audio vermengt sich auf Datenbanken mit Fernsehen und Internet. Das pure Tonsignal von einst ist heute ein Datensatz mit Soundfile und Metadaten angereichert. Zusatzinformationen begleiten den Ton von der Aufnahme bis zum Empfänger. Sie geben Auskunft über Qualität, Auflösung, Zeit und Genre, zeigen ob sich Mono-, Stereo- oder Heimkino-Surround-Sound in der Datei befindet. Die großen Herausforderungen für die Tonmeister und Ingenieure ist die Integration ins Internet und das damit verbundene Datenmanagement. Ziel der bisherigen Entwicklung war es, mit möglichst geringen Datenmengen höchste Tonqualität zu speichern und übertragen zu können, zum Beispiel den Inhalt einer Audio CD auf einen Daumennagel großen Chip zu bringen oder Surround-Sound im schmalbandigen Mobilfunk zu verschicken. Das haben die Toningenieure mit 64 Kilobit pro Sekunde mit dem Westentaschenkino bis an die zur Zeit erkennbaren Grenzen ausgereizt.
Kloiber: Wenn wir nicht mehr vom Tonsignal, sondern nur noch vom Soundfile reden, wie ist denn dann der Workflow, die Handhabung des Datenflusses, heute zu sehen?
Pasch: Der Tonmeister ist heute auch Medieninformatiker. Bei der Aufnahme bereits bekommt das digitalisierte Schallereignis die eben genannte Metadaten. Diese Zusatz-Informationen begleiten das Soundfile durch entsprechende Datenmanagment-Systeme, Editoren zur Bearbeitung, Kompressions- und Kodierverfahren. Auch eine Ablaufsteuerung, die aus dem Produkt ein Programm macht, greift auf diese Metadaten letztendlich zurück. Und mehr oder weniger in Echtzeit werden die Datenströme so umgewandelt, wie sie der Nutzer empfangen will. Dem Tonmeister obliegt hier die Qualitätskontrolle – und das gestuft nach Ausspielweg. Ein Audiocast im Internet ist anders zu bewerten als eine Klassik-Sendung im Radio oder eine DVD-Audio Produktion für höchsten Hörgenuss mit rauschfreiem Signal. Hier auf der AES zeigen einige Systemhäuser Komplett-Lösungen für bi- und tri-mediale Produktionen. Bilder, Töne, Texte, gar Videos in jeder Qualitätsstufe liegen in einer Datenbank. Darauf greift ein Redakteur oder Producer mit seinen PC-gestützten Werkzeugen zu, stellt daraus einen Programmablauf. Für Radiogeräte mit Display, wie beim DAB oder Handy werden parallel auch darauf visuelle Informationen geschickt. Das ist heute schon quasi-Standard im Internet und den WEB-casting-Angeboten so wie on-demand-Diensten, also nicht-linearem Radio und Fernsehen.
Kloiber: Wie sieht es denn mit einer Archivierung solcher Soundfiles aus?
Pasch: Nach wie vor ist das ein grosses Fragezeichen bei der Langzeit-Archivierung. Unschlüssig sind sich die Experten in der AES über das Format, datenreduziert oder nicht, und wenn mit welchen Auflösungen. Klassik-Aufnahmen werden sicherlich anders betrachtet als Originaltöne aus Bundestagsdebatten. Heute stehen für den Porgrammaustausch Gigabit-Netzwerke zur Verfügung und Audio- und Video-Speicher im Petabyte-Bereich. Doch die heutige Produktionsumgebung in den Funkhäusern und Studios wird erst zögernd darauf umgerüstet. Wichtig ist die Dokumentation, die Beschriftung der Sound-Dateien, sodass die Daten auch wiederauffindbar werden. Phonetische Suchmaschinen sind inzwischen verfügbar und werden auch eingesetzt, die auf ein Stichwort hin jeden O-Ton-Schnipsel im Archiv wieder finden. Ein hier in Wien vorgestelltes Verfahren schafft 10.000 Stunden Audio- und Videodaten in nicht weniger als zwei Minuten zu durchforschen.