Zwischengelagert

Vodafone: Zwei Videostreams mit der Bandbreite von einem

Teile und herrsche: Clevere Caches können sogar dann helfen, die Übertragung zu optimieren, wenn sie die falschen Daten enthalten. Am Ende müssen so weniger Bits in einer Zelle verteilt werden.
Aus Berlin berichtet

Kontroll-Drohne von Nokia Diese Drohne von Nokia dient der Kontrolle von an un­zu­gänglichen Orten montierten Basis­stationen.
Bild: Nokia
Eine der großen Herausforderungen für die Mobilfunknetze der Zukunft (5G) ist die erwartete massive Steigerung der übertragenen Datenmenge. Besonderes Augenmerk legen die Netzbetreiber daher auf eine effiziente Behandlung von Videoinhalten, die schon heute je nach Netz 50 bis 90 Prozent der übertragenen Daten ausmachen. Dieser Anteil wird aller Voraussicht nach weiter steigen. So ist es kein Wunder, dass der Netzbetreiber Vodafone Forschungen am Heinrich-Hertz-Institut zur effizienten Codierung und Übertragung der Videodateien nutzt.

Auf einem Fachkolloquium trug Prof. Dr.-Ing. Thomas Wiegand, Fachgebietsleiter Bildkommunikation an der TU Berlin und Executive Director des Fraunhofer HHI den aktuellen Stand der Forschung zur Videokompression vor. H.264/MPEG-4 ist heute der etablierte Standard für die Übertragung von HD-Videos. Er ist in jedem Blu-ray-Player implementiert, und auch ein Großteil der Webvideos werden (noch) in MPEG-4 codiert. Der vor zwei Jahren standardisierte Nachfolger H.265/HEVC (High Efficiency Video Coding) verringert im Vergleich zu MPEG-4 bei selber Bildqualität die Bitrate um etwa 50 Prozent. Insbesondere 4K-Material wird zu einem großen Teil bereits mit H.265 codiert.

Wiegand erklärte auf dem Kolloquium, wie aktuelle Forschung dazu dient, auch nach der Standardisierung die Encoder-Qualität zu verbessern. Ein Beispiel hierfür ist die Zeit-Qualitäts-Wechselbeziehung: Je länger ein Encoder an einem Videostream rechnet, desto stärker kann er diesen komprimieren, da er mit zunehmender Rechenzeit immer bessere Parameter für die Kompression findet. Während es aber noch akzeptabel ist, dass ein Encoder beim Mastering einer Blu-ray ein oder zwei Tage rechnet, muss das normale Fernsehprogramm unbedingt in Echtzeit encodiert werden. Die Forschung sucht daher nach Algorithmen, die möglichst schnell möglichst gute Parametersätze finden. So konnte jüngst die Codiereffizienz eines Echtzeit-Encoders um 4 Prozent gesteigert werden.

Kontroll-Drohne von Nokia Diese Drohne von Nokia dient der Kontrolle von an un­zu­gänglichen Orten montierten Basis­stationen.
Bild: Nokia
Ein ganz neuer Ansatz des Fraunhofer Instituts, um bei begrenzter Bitrate das Beste aus einem Videostream herauszuholen, ist, den Algorithmus bewerten zu lassen, welche Bildbereiche dem Betrachter besonders wichtig sind und welche besonders unwichtig. Auf die wichtigen Bereiche kann er dann entsprechend mehr Bits zur Codierung aufwenden, die unwichtigen Bereiche werden entsprechend mit weniger Bits bedacht. Der visuellle Eindruck ist dann besser - bei insgesamt gleicher Kompression. Als Beispiel zeigte Wiegand ein Bild einer mittelalterlichen Stadt, mit Wald im Hintergrund. Beim Bild mit adaptiver Codierung war der Wald im Hintergrund deutlich strukturierter und daher natürlicher. Im Gegenzug waren die Schindeln, mit denen die Häuser gedeckt waren, nicht ganz so klar gezeichnet. Doch daran störte sich keiner. Um die visuelle Wahrnehmung eines Bildes möglichst unbeeinflusst messen zu können, setzen die Forscher übrigens darauf, direkt die Hirnströme der Probanden via EEG aufzuzeichnen.

Die genannten Verbesserungen (verbesserte Suche nach den optimalen Parametern, adaptive Kompression) benötigen keine neuen Decoder auf Kundenseite. Nur die Software der Encoder wird ausgetauscht. Aber selbstverständlich arbeitet das Heinrich-Hertz-Institut auch bereits am Nachfolger von HEVC.

Effizientes Caching

Ein weiterer Weg, mit begrenzten Ressourcen möglichst viele Videos über die Luft zum Kunden zu übertragen, ist verteiltes Caching. Zwar tragen Netflix oder YouTube einen schier unendlichen Vorrat an Videos. Doch der größte Teil des Traffics kommt von vergleichsweise wenigen Top-Filmen. Effiziente Vorhersage-Algorithmen nutzen das vergangene Video-Schau-Verhalten eines Nutzers, um vorherzusagen, was er als nächstes schauen wird. Diese Videos können dann bei guter Netzversorgung schonmal im Voraus an die User übertragen werden. Dort werden die Videos dann in anderweise ungenutztem Speicher abgelegt.

Wird die Hoheit über die Datenübertragung an das Netz übertragen, lassen sich diese Cache-Inhalte in Kombination mit Multicast sogar dann effizient nutzen, wenn bei einem Nutzer der falsche Film gespeichert ist. Beispiel: Nutzer 1 hat Film A gecacht, Nutzer 2 Film B. Abends starten beide einen Stream, aber genau vertauscht: Nutzer 1 schaut B, Nutzer 2 schaut A. Und was macht das Netz? Es lagert kurzerhand beide Filme übereinander und überträgt das gemischte Signal per Multicast an beide Nutzer gleichzeitig. Von diesem Kombisignal zieht das Endgerät von Nutzer  1 dann Film A ab, um Film B zu erhalten, während Nutzer 2 den Film B abzieht, damit A rauskommt. Obwohl beide also die eigentlich falschen Daten im Cache haben, hilft der Cache, die in der Zelle benötigte Übertragungskapazität von zwei Streams auf einen Stream zu reduzieren!

Für die Netzbetreiber ist das eine gute Nachricht. Zum einen können sie auf diesem Weg die effektive Kapazität einer Zelle speichern. Vor allem aber ist diese Kapazitätssteigerung - und damit die Verbesserung des Diensts für die Nutzer - nur möglich, wenn die Daten direkt vom Netzwerk geliefert werden. Die Netzbetreiber hoffen, dadurch künftig auch an der Content-Bereitstellung wieder stärker beteiligt zu werden als bisher.

Mehr zum Thema Streaming