Das Internet ist kein Rundfunknetz. Und Livesendungen sind eine große Herausforderung für die auf Punkt-zu-Punkt-Verbindungen ausgelegte Netzinfrastruktur. Eine Lösung heißt "Multicast". Ein Video wird vom Server an beliebig viele Nutzer gleichzeitig ausgesandt. Dazu kommuniziert die Netzzentrale mit dem Nutzer-PC oder Smartphone. Zum intelligenten Netzmanagement gehört auch das adaptive Bitraten-Handling, ein dynamisches Verfahren. Jean-Christophe Dessange, Videospezialist beim Netzwerk-Ausrüster Cisco:
"Wenn ein Video zu stoppen droht, weil gerade zu viele Nutzer online sind, dann schaut unser System erst einmal auf die Bandbreite. Und dann entscheidet es automatisch, das Video entsprechend in einer geringeren Auflösung abzuspielen. Das Zurücksetzen der Qualität für eine kurze Zeit akzeptiert der Nutzer eher als ein Ruckelbild oder einen Stillstand. Sobald das Netzwerk weniger belastet ist, kehren wir zur besten Videoqualität zurück."
Was sich so einfach anhört ist nur mit hohem mathematischen Aufwand zu realisieren. An der Universität des Saarlandes arbeitet der Nachrichtentechniker Professor Thorsten Herfet an Algorithmen, die große Videodaten wie sie beim HDTV oder 3D-Video anfallen, ohne Verzögerungen auch durch Flaschenhälse im Internet streamen können. Es ist im Wesentlichen ein Fehlerkorrektur-Verfahren:
"Es ist ein hochkomplexer Rechenprozess, den man durch ganz viele vereinfachende Schritte soweit bringt, dass er in Echtzeit möglich ist. Wie immer ist es so, dass die genaue analytische Lösung sehr aufwendig ist, aber wenn man die Schrauben so ansetzen und die Vereinfachung da macht, wo es am wenigsten wehtun und die Effizient am wenigsten beeinflussen, dann kann man das echtzeitfähig machen ohne dass man zu viel vom Optimum abweichen muss. Und genau das haben wir getan."
Soweit zu den Optimierungsmöglichkeiten im Netzwerk. Mit dem Video selbst beschäftigt sich Jürgen Lohr, Professor für Videotechnik an der Fachhochschule Aachen, insbesondere mit 3D- und Multi-View-Aufnahmen. Ihn interessieren besonders die Herausforderungen bei der Aufnahme und der Verarbeitung von parallel laufenden Videos – zum Beispiel wenn zwei, aber auch fünf oder sechs HDTV-Videos vom Produzenten am Schnittplatz bearbeitet werden:
"Da muss er drauf achten, die verschiedenen Spuren synchron zu schneiden. Das geht mit vorhandenen tools für Aufnahmen mit mehreren Kameras. Das muss man dann einzeln wieder ausspielen. Dann packen wir einen Container zusammen aus einem audio- und zwei videosfiles. Und dieser Container kommt auf den streaming-server."
Mit einem Software-Player lässt sich dieser Container öffnen und auf dem Monitor entweder stereoskopisch oder als Mehrbild-Video darstellen. Noch sind diese Clients oder Multiview-Player nur vereinzelt verfügbar. Ein Bluray-Abspielgerät zum Beispiel kann einen 3D-Container entpacken. Und Fraunhofer-Forscher aus dem Heinrich-Hertz-Institut in Berlin zeigen auf der IBC ein neues Codierverfahren für 3D- und Multiview-Videos, MVC genannt. Es nutzt aktuelle Kompressionsverfahren für zwei volle HD Videos. Darüber hinaus spürt sein System Redundanzen in den parallelen Bildern auf. Die Daten, die mehrfach im Videostream auftauchen, werden nur einmal übertragen. Das verringert die Gesamtdatenmenge, erhält aber auf der anderen Seite die brillante HD-Darstellung. Am Ende des Prozesses, im Dekoder, setzt MVC dann die beiden Videos exakt und synchron wieder zusammen. So können 3D-Filme in höchster Auflösung über herkömmliche Satelliten- und Kabel-Kanäle sowie im Internet ohne Unterbrechung gesendet werden. Shpert Mirta, Wissenschaftler am Fraunhofer-Institut für Nachrichtentechnik, demonstriert dies am Fraunhofer-Stand auf der IBC.
"Zwischen den einzelnen Videobildern nutzen wir die Redundanz und haben damit eine Reduktion der Bitrate um 20 Prozent, im Fall von Stereo-Video"
Ein weiterer Vorteil, darauf weist der Forscher hin, sei bei MVC die Abwärts – Kompatibilität. Meint: Nutzer älterer Fernsehgeräte und Settopboxen sehen HDTV wie gewohnt - zweidimensional. Das 3D-Signal im Datenstrom erkennen nur die Empfänger, die MVC dekodieren können. An der Standardisierung arbeiten Forscher und Industrie allerdings noch.
"Wenn ein Video zu stoppen droht, weil gerade zu viele Nutzer online sind, dann schaut unser System erst einmal auf die Bandbreite. Und dann entscheidet es automatisch, das Video entsprechend in einer geringeren Auflösung abzuspielen. Das Zurücksetzen der Qualität für eine kurze Zeit akzeptiert der Nutzer eher als ein Ruckelbild oder einen Stillstand. Sobald das Netzwerk weniger belastet ist, kehren wir zur besten Videoqualität zurück."
Was sich so einfach anhört ist nur mit hohem mathematischen Aufwand zu realisieren. An der Universität des Saarlandes arbeitet der Nachrichtentechniker Professor Thorsten Herfet an Algorithmen, die große Videodaten wie sie beim HDTV oder 3D-Video anfallen, ohne Verzögerungen auch durch Flaschenhälse im Internet streamen können. Es ist im Wesentlichen ein Fehlerkorrektur-Verfahren:
"Es ist ein hochkomplexer Rechenprozess, den man durch ganz viele vereinfachende Schritte soweit bringt, dass er in Echtzeit möglich ist. Wie immer ist es so, dass die genaue analytische Lösung sehr aufwendig ist, aber wenn man die Schrauben so ansetzen und die Vereinfachung da macht, wo es am wenigsten wehtun und die Effizient am wenigsten beeinflussen, dann kann man das echtzeitfähig machen ohne dass man zu viel vom Optimum abweichen muss. Und genau das haben wir getan."
Soweit zu den Optimierungsmöglichkeiten im Netzwerk. Mit dem Video selbst beschäftigt sich Jürgen Lohr, Professor für Videotechnik an der Fachhochschule Aachen, insbesondere mit 3D- und Multi-View-Aufnahmen. Ihn interessieren besonders die Herausforderungen bei der Aufnahme und der Verarbeitung von parallel laufenden Videos – zum Beispiel wenn zwei, aber auch fünf oder sechs HDTV-Videos vom Produzenten am Schnittplatz bearbeitet werden:
"Da muss er drauf achten, die verschiedenen Spuren synchron zu schneiden. Das geht mit vorhandenen tools für Aufnahmen mit mehreren Kameras. Das muss man dann einzeln wieder ausspielen. Dann packen wir einen Container zusammen aus einem audio- und zwei videosfiles. Und dieser Container kommt auf den streaming-server."
Mit einem Software-Player lässt sich dieser Container öffnen und auf dem Monitor entweder stereoskopisch oder als Mehrbild-Video darstellen. Noch sind diese Clients oder Multiview-Player nur vereinzelt verfügbar. Ein Bluray-Abspielgerät zum Beispiel kann einen 3D-Container entpacken. Und Fraunhofer-Forscher aus dem Heinrich-Hertz-Institut in Berlin zeigen auf der IBC ein neues Codierverfahren für 3D- und Multiview-Videos, MVC genannt. Es nutzt aktuelle Kompressionsverfahren für zwei volle HD Videos. Darüber hinaus spürt sein System Redundanzen in den parallelen Bildern auf. Die Daten, die mehrfach im Videostream auftauchen, werden nur einmal übertragen. Das verringert die Gesamtdatenmenge, erhält aber auf der anderen Seite die brillante HD-Darstellung. Am Ende des Prozesses, im Dekoder, setzt MVC dann die beiden Videos exakt und synchron wieder zusammen. So können 3D-Filme in höchster Auflösung über herkömmliche Satelliten- und Kabel-Kanäle sowie im Internet ohne Unterbrechung gesendet werden. Shpert Mirta, Wissenschaftler am Fraunhofer-Institut für Nachrichtentechnik, demonstriert dies am Fraunhofer-Stand auf der IBC.
"Zwischen den einzelnen Videobildern nutzen wir die Redundanz und haben damit eine Reduktion der Bitrate um 20 Prozent, im Fall von Stereo-Video"
Ein weiterer Vorteil, darauf weist der Forscher hin, sei bei MVC die Abwärts – Kompatibilität. Meint: Nutzer älterer Fernsehgeräte und Settopboxen sehen HDTV wie gewohnt - zweidimensional. Das 3D-Signal im Datenstrom erkennen nur die Empfänger, die MVC dekodieren können. An der Standardisierung arbeiten Forscher und Industrie allerdings noch.