Wozu braucht man HDR bei Ultra-HD?

HDR bietet bei Ultra-HD mehr – und stellt höhere Anforderungen

Der Unterschied zwischen den Bildauflösungen Ultra-HD (4K, 2160p) und Full-HD (1080p) fällt vielen Betrachtern bei normalem Sitzabstand kaum auf. Doch Ultra-HD bietet noch eine weitere Qualitätsverbesserung: HDR (High Dynamic Range), ein erhöhter Kontrast- und Farbumfang im Gegensatz zu SDR (Standard Dynamic Range). Diese Technik kann zusätzlich zu der hohen Auflösung eingesetzt werden und sorgt für lebendige Bilder. Dies wirkt sich bei Aufnahmen mit Gegenlicht oder starken Helligkeit-Unterschieden aus. Beispiel: Bei der Fernsehübertragung eines sommerlichen Fußballspiels liegt manchmal ein Teil des Spielfelds im Schatten. Bei SDR erscheint der Bildteil in der Sonne entweder zu hell oder der im Schatten zu dunkel. Dieser Eindruck verbessert sich mit HDR deutlich. Auch die Farben wirken wesentlich knalliger. Während bei SDR nur 8 Bit pro RGB-Farbabstufung benutzt werden (also 256 unterschiedliche Helligkeiten pro Farbe), sind es bei HDR mindestens 10 Bit (also 1024 Abstufungen). Dies erlaubt stärke Unterschiede zwischen hell und dunkel sowie feinere Übergänge dazwischen. Im direkten Vergleich zweier Bilder sieht es so aus, also würde man die Sonnenbrille abnehmen.

links ohne / rechts mit HDR (Simulation)

Mit High Dynamic Range und 10 Bit Farbtiefe ist theoretisch eine Nutzung des vergrößerter Farbumfangs nach ITU-Empfehlung 2020 möglich (auch Rec. 2020 oder BT.2020 genannt). Damit können 75 % der RGB-Normfarben dargestellt werden. Bei herkömmlichem Farbraum mit 8 Bit waren es nur 35 %. In der Praxis mangelt es noch an der dafür notwendigen Helligkeit der Display bei gleichzeitig akzeptablem Schwarzwert.

Wo gibt es HDR?

Hauptquelle für HDR-Material sind Streaming-Apps wie Netflix, Amazon Video sowie Computerspiele. Manche Smartphones und diverse Kameras sind ebenfalls mit Ultra-HD Auflösung und HDR ausgestattet, entsprechend viele Filme gibt es bei YouTube. Auch zunehmend mehr Ultra-HD Blu-ray Scheiben werden mit HDR ausgerüstet. 3D spielt hier keine Rolle mehr.

Nicht jeder Fernseher mit HDR-Unterstützung bietet eine bessere Bildqualität als Ultra-HD-Geräte ohne HDR-Fähigkeit. Denn noch gibt es wenige HDR-TV-Geräte, die tatsächlich ein 10-Bit Display einsetzen. Die maximale Helligkeit, für die HDR entwickelt wurde und mit welcher die Filme abgemischt werden, können noch gar keine Consumer-Geräte darstellen. Folglich muss der Fernseher herunter konvertieren, und diese gelingt nicht immer souverän. So kann es bei günstigen HDR-Fernsehern sein, dass das Bild sehr dunkel erscheint, weil die nötige hohe Helligkeit des Bildschirms fehlt.

Im einfachsten Fall können Sie einen Ultra-HD Fernseher mit HDR-10 Unterstützung und Streaming-App für HDR einsetzen. Wenn die Zuspielung durch eine externe Quelle erfolgt, müssen sämtliche Komponenten bis zum Display die höhere HDR-Bandbreite unterstützen. Außerdem wird bei Ultra-HD der Kopierschutz HDCP 2.2 eingesetzt, der ebenfalls von den angeschlossenen Geräten berücksichtigt werden muss.

Was ändert sich noch bei HDR?

Da HDR wegen der 10 Bit Farbinformationen eine viermal größere Bandbreite als Ultra-HD in SDR benötigt, steigt auch die zu übertragende Datenrate. Über die HDMI-Schnittstelle in der aktuellen Version 2.0 sind Brutto-Datenraten bis 18 GBit/s möglich. Dies ist für Computerspiele, die häufig mit einer Bildwiederholrate von 60 Hz ausgegeben werden, für HDR schon zu wenig. Daher wird die Datenmenge für die Ausgabe reduziert, indem Teile der Bildinformation neu berechnet werden. Dazu trennt man Farb- und Helligkeitsinformation des Bildsignale und kodiert es neu in das YUV-Farbformat. Die Bildhelligkeit (Y-Kanal) bleibt unverändert, die Farbkanäle werden mit halber (YUV 4:2:2) oder viertel Auflösung (YUV 4:2:0) übertragen. Da ähnliche Farben vom menschlichen Auge nicht so gut aufgelöst werden können wie unterschiedliche Helligkeiten bleibt die Reduzierung unbemerkt.

Für die Übertragung von Filmen in HDR muss ein AV-Receiver, HDMI-Verteiler, HDMI-Switch eine Datenrate von mindestens 9 GBit/s sowie HDCP 2.2 unterstützen. Ein HDR-tauglicher Fernseher oder Projektor sollte über eine HDMI 2.0 Schnittstelle verfügen.

QUELLE STANDARD ABSTASTUNG, FREQUENZ BEMERKUNG
Ultra-HD Blu-ray Player HDR10, Dolby Vision YUV4:2:0, 24 Hz (bis 60 Hz) demnächst auch 12-Bit
PlayStation 4 Pro HDR10 YUV4:2:2, 60 Hz kein 4K Blu-ray
Xbox One S (Blu-Ray) HDR10, Dolby Vision YUV4:2:0, 24 Hz keine 4K Spiele
Sky+ Pro Sat-Receiver HDR10, HLG YUV 4:2:2, 60 Hz
Amazon Fire TV 4k (bis 2017) kein HDR YUV4:2:0, 30 Hz
Amazon Fire TV 4K Ultra-HD (ab 2017) HDR10, Dolby Vision YUV 4:2:2, 60 Hz auch als Stick
Amazon Video App HDR10, Dolby Vision abhängig von TV Software
Netflix App HDR10, Dolby Vision abhängig von TV Software
PC + Grafikkarte HDR10 bis 120 Hz abhängig von Hard-/Software

  

HDR-10

HDR10 ist das am meisten verbreitete HDR-Signal – sowohl bei den Endgeräten als auch bei Filmen und Spielen. Jedes HDR-fähige Display unterstützt HDR-10. Es benutzt für jede der RGB-Farben eine Auflösung von 10 Bit. Damit ist ein vergrößerter Farbumfang nach ITU-Empfehlung 2020 möglich (auch Rec. 2020 oder BT.2020 genannt). HDR-10 ist ein offener Standard. Die Unterstützung ist in der HDMI-Version 2.0b geregelt.

Dolby Vision

Dolby Vision ist ein erweiteter HDR-Standard, der sogar 12-Bit Technik einsetzt und dieses Spektrum dynamisch anpasst. Während bei HDR-10 (vereinfacht gesagt) der hellste und dunkelste Bildpunkt für den ganzen Film festgelegt werden, kann dies mit Dolby Vision für jedes einzelne Bild eingestellt werden. Der Fernseher muss Dolby Vision explizit unterstützen, hierfür ist eine Lizenz nötig. Derzeit gibt solche TV-Geräte nur von LG. Entsprechende Filme werden vorwiegend per Streaming angeboten. Bei Computer-/Konsolenspielen gibt es keine Angebote. Da noch keine HDMI-Übertragungsnorm für solche dynamischen Daten festgelegt wurde, können die Zusatzdaten bislang nur in den HDMI-Metadaten versteckt werden. Auch dazwischen geschaltete AV-Receiver müssen für Dolby Vision angepasst werden, da diese das HDMI-Signal nicht unbearbeitet durchlassen. Externe Geräte mit Dolby Vision sind noch sehr selten. Bei Blu-ray Scheiben ist eine Unterstützung möglich, entsprechende Filme werden auch zusätzlich in HDR-10 erstellt. HDR-10 wird in einem weiteren Layer auf die  UltraHD Blu-ray Disc gepresst.

HLG

HLG (Hybrid Log Gamma) ist ein weiterer HDR-Standard, der für TV-Übertragungen eingesetzt wird. Es wird zum Beispiel beim Astra Ultra-HD Demokanal via Satellit eingesetzt. Bei HLG wird das HDR-Bild abwärtskompatibel zu SDR gesendet. Vorteil: Es muss nur ein einziger Datenstrom übertragen werden, um auch Geräte ohne HDR zu versorgen.

Sind neue HDMI-Kabel erforderlich?

Eine neue Norm für HDMI-Kabel gibt es dagegen nicht. Die bisher mit „HDMI High-Speed with Ethernet“ ausgezeichneten Kabel sollen es auch für Ultra-HD und HDR tun. Allerdings haben es die Kabel mit beträchtlich mehr Datenrate zu tun, als bei deren Entwicklung getestet werden konnte. Bei langen Kabelwegen oder nicht optimaler Qualität kann es hier zu kleinen weißen Punkten im Bild oder einem Schwarzbild kommen. Abhilfe schaffen höherwertige Kabel mit größerem Durchmesser und besserer Abschirmung. Auch der Einsatz eines HDMI 2.0 Repeaters, einem Signalverstärker, kann bei solchen Problemen helfen.

Repeater zur Verstärkung langer HDMI-Kabelwege


Nachtrag:

HDR10+

Seit 2018 gibt es ein weiteres dynamisches HDR-Format namens HDR10+ (oder auch HDR10 Plus geschrieben). Dieses verwendet wie Dolby Vision variable Farb- und Helligkeitseinstellungen. Für jede Szene kann also ein optimaler Kontrastwert bei der Produktion eingestellt werden. Die Farbtiefe ist auf 10-Bit begrenzt. Dieses HDR-Format lässt sich bei einigen HDR10-fähigen Wiedergabegeräten durch Software updaten. HDR10+ wurde durch Amazon Video, 20th Century Fox, Samsung und Panasonic als offener Standard entwickelt. Eine Liste der Hersteller, die unterstützen HDR10+ unterstützen, gibt es hier. Neu produzierte 4K Filme unterstützen häufig alle 3 Formate (HDR10, Dolby-Vision, HDR10+).