Bildstörungen, Ruckelbilder und kleine Aussetzer beim Videogucken auf dem Tablet oder Smartphone sollten seit dem vergangenen Jahr eigentlich Geschichte sein. Denn mit einem neuen Standard für die Videokompression namens H.265 - auch High Efficiency Video Coding genannt - konnte die Größe der Videodateien auf die Hälfte geschrumpft werden. Doch die Qualität der Videostreams im Internet insgesamt hat sich dadurch nicht wesentlich verbessert. Entgegen allen Erwartungen sind Artefakte und andere Bildstörungen immer noch stark verbreitet. Professor Thomas Wiegand vom Fraunhofer Institut Heinrich-Hertz in Berlin erklärt, warum das so ist.
"Letzten Endes ist die Anzahl der Artefakte eine Wahl, die die Firma trifft, die ihnen den Stream zur Verfügung stellt. Wenn Sie kodieren, dann können Sie einstellen, wie viel Bitrate Sie benutzen, je mehr Bitrate, desto weniger Artefakte. Natürlich bei einem neuen Standard wie H.265, wo eben die Bitrate kleiner wird bei gleicher Qualität, ist es wahrscheinlich, dass auch die Qualität der Videos besser wird, die man dort sieht. Am Ende ist es eine Frage des ökonomischen Modells und nicht der Technologie."Steigt die Datenmenge, muss die Videokompression besonders effizient werden, um die erforderliche Bildqualität zu ermöglichen. So konnte mit dem neuen Standard H.265 die Bitrate für Videos durch eine Aufteilung der Bilder in Datenblöcke halbiert werden."Zum Beispiel ist es so, dass man bei H264 das Bild aufteilt in Blöcke. Die sind bisher gleich groß gewesen und auch vergleichsweise klein. Bei H.265 macht man eine viel größere und flexible Blockaufteilung, die Baumstrukturen folgt, mit denen man dann den verschiedenen Blättern des Baumes, könnte man sagen, verschiedene Codier-Parameter zugeordnet. Das Ganze hat man mit diskreten Optimierungsverfahren gemacht, die zurückgehen auf Operations Research. Das ist eine Disziplin, bei der man in der Ökonomie Ressourcen an verschiedene Einheiten verteilt. Und das hat man hier auch angewendet."Vor allen Dingen von statistischen Prognoseverfahren versprechen sich die Forscher weitere Reduzierungen der Bitrate. Das ist so eine Art Big-Data-Anwendung für die Videokompression. Aus den Inhalten der bereits gesendeten Bilder werden die neuen Bilder berechnet. Weil sich aber viele Bilder ähnlich sehen, werden dann nur die neuen Bildinhalte übertragen und neu berechnet. Die ähnlichen Bildinhalte dagegen werden aus den bereits übertragenen Bildern übernommen. Entscheidend ist dabei, wie viel Bildinhalte tatsächlich prognostiziert werden können.
"Die Vorhersage von Bild zu Bild basiert auf statistischen Annahmen. Die Bilder sind voneinander abhängig und man kann zu einem bestimmten Grad mit einer gewissen Wahrscheinlichkeit diese Vorhersage treffen. Die Vorhersage selbst braucht auch Bits zur Übertragung. Man muss den Empfänger sagen, wie man vorher gesagt hat. Zum Zweiten wird das, was nicht vorhersagbar ist, auch übertragen mit Bits. Man benutzt dort auch eine Signaldarstellung, um diesen Teil zu übertragen. Und je besser man vorhersagt, bisher war es so, desto weniger braucht man für den Teil, der den Rest macht. Das ist auch der große Unterschied zwischen H264 und H265. Bei H265 kann man besser vorhersagen"Eine weitere Halbierung der Bitrate bei der Videokompression erwarten die Forscher durch die Einarbeitung neurologischer Erkenntnisse über die Bildverarbeitung im Gehirn der Zuschauer. Thomas Wiegand:"Das Ganze fing damit an, dass ich mich in ein psychologisches Seminar hinein gesetzt habe, weil ich ein paar Sachen wissen wollte und dann fragten sie mich, ob ich mal über meine Probleme vortragen konnte. Und das habe ich denn getan. Und dann sagte ein Neurologe zu mir: kein Problem, wir können das mit EEG messen. Sie müssen sich das vorstellen. EEG sind Elektroden, die Sie am Kopf haben, die Ihre Hirnströme messen und Sie können mit dieser Messung feststellen, was in Ihrem Auge als Signal sichtbar wird."Die Codecs für die Videokompression der nächsten Generation sollen auf der Grundlage sogenannter psychovisueller Modelle entwickelt werden. Dafür müssen die Forscher erst wissen, welche Bildstörungen von Zuschauer überhaupt wahrgenommen werden und welche nicht. Dann können sie die Daten weiter so reduzieren, dass zwar Störungen entstehen, die aber vom Zuschauer nicht registriert werden. Mit diesem Konzept lässt sich nach Schätzungen von Thomas Wiegand mindestens noch einmal die Hälfte der zu übertragenden Videodaten einsparen. 2020 sollen die neuen Codecs so weit sein.