Fünf HD-Kameras sitzen fest wie die Hühner auf der Stativ-Stange, die Bildausschnitte sind unverrückbar eingestellt und so ausgerichtet, dass alle fünf Kameras zusammen das komplette Spielfeld in einem 180-Grad-Panorama-Bild zeigen. Dieses Kamera-Cluster schafft eine Auflösung von etwa 6000 horizontalen und 2000 vertikalen Bildpunkten und ist somit etwa doppelt so scharf und brillant wie der digitale Kinofilm heute. Pro Sekunde erzeugen die Bildsensoren etwa zehn Gigabit. Dieses Volumen ist gerade noch in einem Highend-Computernetzwerk zu handhaben. Und aufgezeichnet wird diese enorme Datenmenge auf speziellen Festplattenrekordern, die bislang nur als Labormuster existieren.
"Wenn man zum Beispiel ein solches Kamerasystem ins Stadion stellt, dann hat man erst einmal die gesamte Szene im Kasten und kann sich anschließend den HD-Teil, den Ausschnitt herausnehmen, den man haben will. Man hat erstmal alles aufgezeichnet und kann es dann elektronisch nachbearbeiten, also im Prinzip einen elektronischen Kameramann nachbauen","
schwärmt Ralf Schäfer, Leiter des Berliner Heinrich-Hertz-Instituts, das mit Kamera-Herstellern kooperiert. Und am Münchener Institut für Rundfunktechnik IRT kümmern sich Informatiker um Objekterkennung und Videoanalyse. Ihr Forschungsgebiet ist das Objekttracking, das Nachverfolgen von optischen Elementen. Erstmals eingesetzt wurde ihre Software im vergangenen Jahr, als HDTV-Bilder ausschnittweise zurechtgestutzt werden mussten für das Mobile Fernsehen auf dem Handy. Der virtuelle Kameramann zoomte in die Szene hinein, blieb sozusagen am Ball, erzählt Gerhard Stoll, Projektleiter am IRT:
""Es ist nicht nur ein Zoom, es werden auch Farben, Kontraste und Schärfe extrahiert – und mit diesen Werten kann ich dann Objekte sehr gut verfolgen."
Beim ultrahochaufgelösten Panorama des Heinrich-Hertz-Instituts gibt es die Ausschnitt-Vergrösserungen in HDTV-Qualität. Der Regisseur kann ohne jede Verzögerung eingreifen und auswählen. Bei den zu bewältigenden Datenmengen eine echte Herausforderung an die Systemtechnik. Auf Rechnern im IRT-Labor laufen mittlerweile schon automatische Objekterkennungs-Programme:
"Im Sport, ganz klar, kennen wir das Objekt-Tracking schon eine längere Zeit. Da wird es verwendet um Statistiken über einzelne Spieler zu erhalten, über die Geschwindigkeit, den Ball, wie weit die Spieler gelaufen sind. Und wenn ich die Beschaffenheit des Objektes kenne, zum Beispiel den Ball – das ist ein rundes Objekt, das sich die meiste Zeit auf einer grünen Fläche bewegt, so kann ich dann solche Objekte aufgrund der Videoanalyse heraus kristallisieren und auch in Echtzeit tracken."
Fußball-Trainer zum Beispiel nutzen dieses Verfahren. Sie wollen oder müssen mehr sehen als der Zuschauer. Einen weiteren Einsatz der Videoanalyse sieht IRT-Forscher Stoll beim Aufbau digitaler Archive mit audiovisuellen Daten.
"Wo ich riesige AV-Inhalte künftig zur Verfügung habe. Und wenn ich mich in diesen Archiven zurecht finden möchte, dann brauche ich sehr viele, stabile und aussagende Metadaten. Und die Metadaten-Eingabe per Hand wird keiner sich leisten können, weil zu aufwendig. Und genau für diese Anwendungen sehe ich die Videoanalyse künftig, für Archive, Librarys und solche Anwendungen."
Doch im Grunde zielen die Forschungsanstrengungen zur höchsten Video-Auflösung aufs Kino-Publikum, meint Thomas Brune, Ingenieur beim Kamerahersteller Thomson in Hannover:
"Der Trend wird eindeutig dahin gehen, dass man höhere Auflösungen anbietet. Es ist für den Zuschauer eindeutig besser, das Blickfeld erweitert zu haben, am Rande mehr Pixel zu haben. Und eindeutig mehr Detailtiefe. Wir alle kennen Zelluloid-Filme, die 25 Mal durch den Projektor gelaufen sind, da wird der Fokus ein bisschen dejustiert. Das will man nicht mehr sehen, das ist man auch nicht mehr gewohnt zu sehen."
Ralf Schäfer vom Heinrich Hertz Institut ergänzt, dass der Zuschauer im Kino künftig ein mediales Ereignis sehr nahe an der Wirklichkeit leben wird.
"Das geschieht einmal durch 3D, wird praktisch bei den neuen Projektoren mitgeliefert. Man muss sich dazu nur noch ein Brillensystem anschaffen, die Projektoren sind bereits auf 3D vorbereitet. Die andere Sache ist dann, dass man dann auch Event-Kino machen wird, das heißt auch Live-Übertragung ins Kino von Events, die an einem ganz anderen Ende der Welt stattfinden."
"Wenn man zum Beispiel ein solches Kamerasystem ins Stadion stellt, dann hat man erst einmal die gesamte Szene im Kasten und kann sich anschließend den HD-Teil, den Ausschnitt herausnehmen, den man haben will. Man hat erstmal alles aufgezeichnet und kann es dann elektronisch nachbearbeiten, also im Prinzip einen elektronischen Kameramann nachbauen","
schwärmt Ralf Schäfer, Leiter des Berliner Heinrich-Hertz-Instituts, das mit Kamera-Herstellern kooperiert. Und am Münchener Institut für Rundfunktechnik IRT kümmern sich Informatiker um Objekterkennung und Videoanalyse. Ihr Forschungsgebiet ist das Objekttracking, das Nachverfolgen von optischen Elementen. Erstmals eingesetzt wurde ihre Software im vergangenen Jahr, als HDTV-Bilder ausschnittweise zurechtgestutzt werden mussten für das Mobile Fernsehen auf dem Handy. Der virtuelle Kameramann zoomte in die Szene hinein, blieb sozusagen am Ball, erzählt Gerhard Stoll, Projektleiter am IRT:
""Es ist nicht nur ein Zoom, es werden auch Farben, Kontraste und Schärfe extrahiert – und mit diesen Werten kann ich dann Objekte sehr gut verfolgen."
Beim ultrahochaufgelösten Panorama des Heinrich-Hertz-Instituts gibt es die Ausschnitt-Vergrösserungen in HDTV-Qualität. Der Regisseur kann ohne jede Verzögerung eingreifen und auswählen. Bei den zu bewältigenden Datenmengen eine echte Herausforderung an die Systemtechnik. Auf Rechnern im IRT-Labor laufen mittlerweile schon automatische Objekterkennungs-Programme:
"Im Sport, ganz klar, kennen wir das Objekt-Tracking schon eine längere Zeit. Da wird es verwendet um Statistiken über einzelne Spieler zu erhalten, über die Geschwindigkeit, den Ball, wie weit die Spieler gelaufen sind. Und wenn ich die Beschaffenheit des Objektes kenne, zum Beispiel den Ball – das ist ein rundes Objekt, das sich die meiste Zeit auf einer grünen Fläche bewegt, so kann ich dann solche Objekte aufgrund der Videoanalyse heraus kristallisieren und auch in Echtzeit tracken."
Fußball-Trainer zum Beispiel nutzen dieses Verfahren. Sie wollen oder müssen mehr sehen als der Zuschauer. Einen weiteren Einsatz der Videoanalyse sieht IRT-Forscher Stoll beim Aufbau digitaler Archive mit audiovisuellen Daten.
"Wo ich riesige AV-Inhalte künftig zur Verfügung habe. Und wenn ich mich in diesen Archiven zurecht finden möchte, dann brauche ich sehr viele, stabile und aussagende Metadaten. Und die Metadaten-Eingabe per Hand wird keiner sich leisten können, weil zu aufwendig. Und genau für diese Anwendungen sehe ich die Videoanalyse künftig, für Archive, Librarys und solche Anwendungen."
Doch im Grunde zielen die Forschungsanstrengungen zur höchsten Video-Auflösung aufs Kino-Publikum, meint Thomas Brune, Ingenieur beim Kamerahersteller Thomson in Hannover:
"Der Trend wird eindeutig dahin gehen, dass man höhere Auflösungen anbietet. Es ist für den Zuschauer eindeutig besser, das Blickfeld erweitert zu haben, am Rande mehr Pixel zu haben. Und eindeutig mehr Detailtiefe. Wir alle kennen Zelluloid-Filme, die 25 Mal durch den Projektor gelaufen sind, da wird der Fokus ein bisschen dejustiert. Das will man nicht mehr sehen, das ist man auch nicht mehr gewohnt zu sehen."
Ralf Schäfer vom Heinrich Hertz Institut ergänzt, dass der Zuschauer im Kino künftig ein mediales Ereignis sehr nahe an der Wirklichkeit leben wird.
"Das geschieht einmal durch 3D, wird praktisch bei den neuen Projektoren mitgeliefert. Man muss sich dazu nur noch ein Brillensystem anschaffen, die Projektoren sind bereits auf 3D vorbereitet. Die andere Sache ist dann, dass man dann auch Event-Kino machen wird, das heißt auch Live-Übertragung ins Kino von Events, die an einem ganz anderen Ende der Welt stattfinden."