Wozu braucht man HDR bei Ultra-HD? - FeinTech

Wozu braucht man HDR bei Ultra-HD?

HDR bietet bei Ultra-HD mehr – und stellt höhere Anforderungen

Der Unterschied zwischen Ultra-HD (4K, 2160p) und Full-HD (1080p) ist für viele Zuschauer bei normalem Sitzabstand kaum wahrnehmbar. Doch Ultra-HD bringt eine zusätzliche Qualitätssteigerung: HDR (High Dynamic Range). Diese Technologie ermöglicht einen erweiterten Kontrast- und Farbumfang im Vergleich zu SDR (Standard Dynamic Range) und sorgt für lebendigere Bilder. Besonders bei Aufnahmen mit Gegenlicht oder starken Helligkeitsunterschieden zeigt HDR seine Vorteile. Zum Beispiel: Bei der Übertragung eines sommerlichen Fußballspiels kann ein Teil des Spielfelds im Schatten liegen. Während bei SDR die sonnigen Bereiche überbelichtet oder die schattigen Bereiche zu dunkel erscheinen, sorgt HDR für eine ausgewogene Darstellung. Zudem wirken die Farben lebendiger. Während SDR nur 8 Bit pro RGB-Farbabstufung verwendet (also 256 Helligkeitsstufen pro Farbe), nutzt HDR mindestens 10 Bit (also 1024 Abstufungen). Dies ermöglicht stärkere Unterschiede zwischen hell und dunkel sowie feinere Übergänge. Im direkten Vergleich sieht es so aus, als würdest du eine Sonnenbrille abnehmen.

links ohne / rechts mit HDR (Simulation)

Mit High Dynamic Range und 10 Bit Farbtiefe ist theoretisch eine Nutzung des vergrößerter Farbumfangs nach ITU-Empfehlung 2020 möglich (auch Rec. 2020 oder BT.2020 genannt). Damit können 75 % der RGB-Normfarben dargestellt werden. Bei herkömmlichem Farbraum mit 8 Bit waren es nur 35 %. In der Praxis mangelt es noch an der dafür notwendigen Helligkeit der Display bei gleichzeitig akzeptablem Schwarzwert.

Wo gibt es HDR?

Hauptquelle für HDR-Material sind Streaming-Apps wie Netflix, Amazon Video sowie Computerspiele. Manche Smartphones und diverse Kameras sind ebenfalls mit Ultra-HD Auflösung und HDR ausgestattet, entsprechend viele Filme gibt es bei YouTube. Auch zunehmend mehr Ultra-HD Blu-ray Scheiben werden mit HDR ausgerüstet. 3D spielt hier keine Rolle mehr.

Nicht jeder Fernseher mit HDR-Unterstützung bietet eine bessere Bildqualität als Ultra-HD-Geräte ohne HDR-Fähigkeit. Denn noch gibt es wenige HDR-TV-Geräte, die tatsächlich ein 10-Bit Display einsetzen. Die maximale Helligkeit, für die HDR entwickelt wurde und mit der die Filme abgemischt werden, kann von den meisten Consumer-Geräten nicht erreicht werden. Daher kann der Fernseher das Bild nicht immer optimal umwandeln, was insbesondere bei günstigeren Modellen dazu führen kann, dass das Bild zu dunkel erscheint, da die nötige Helligkeit fehlt.

Im einfachsten Fall kannst du einen Ultra-HD Fernseher mit HDR-Unterstützung und eine Streaming-App für HDR nutzen. Wenn die Zuspielung über eine externe Quelle erfolgt, müssen alle Komponenten bis zum Display die erforderliche HDR-Bandbreite unterstützen. Zudem kommt bei Ultra-HD der Kopierschutz HDCP 2.2 zum Einsatz, der ebenfalls von den angeschlossenen Geräten berücksichtigt werden muss.

Was ändert sich noch bei HDR?

Da HDR wegen der größeren Farbinformationen eine mehrfach höhere Bandbreite als Ultra-HD in SDR benötigt, steigt auch die zu übertragende Datenrate. Über die HDMI-Schnittstelle in der aktuellen Version 2.0 sind Brutto-Datenraten bis 18 GBit/s möglich. Dies ist für 4k Computerspiele, die häufig mit einer Bildwiederholrate von 60 Hz ausgegeben werden, für HDR schon zu wenig. Daher wird die Datenmenge für die Ausgabe reduziert, indem Teile der Bildinformation neu berechnet werden. Dazu trennt man Farb- und Helligkeitsinformation des Bildsignale und kodiert es neu in das YUV-Farbformat. Die Bildhelligkeit (Y-Kanal) bleibt unverändert, die Farbkanäle werden mit halber (YUV 4:2:2) oder viertel Auflösung (YUV 4:2:0) übertragen. Da ähnliche Farben vom menschlichen Auge nicht so gut aufgelöst werden können wie unterschiedliche Helligkeiten bleibt die Reduzierung unbemerkt.

Für die Übertragung von HDR-Filmen musst du sicherstellen, dass dein AV-Receiver, HDMI-Verteiler oder HDMI-Switch eine Datenrate von mindestens 9 GBit/s - besser 18 GBit/s - sowie HDCP 2.2 unterstützt. Ein HDR-tauglicher Fernseher oder Projektor sollte über eine HDMI 2.0 Schnittstelle verfügen.

QUELLE STANDARD ABSTASTUNG, FREQUENZ BEMERKUNG
Ultra-HD Blu-ray Player HDR10, Dolby Vision YUV4:2:0, 24 Hz (bis 60 Hz)
PlayStation 4 Pro  HDR10 YUV4:2:2, 60 Hz kein 4K Blu-ray
PlayStation 5 HDR10 RGB/YUV444 120Hz
Xbox One S (Blu-Ray) HDR10, Dolby Vision YUV4:2:0, 24 Hz keine 4K Spiele
Xbox Series X HDR10, Dolby Vision RGB/YUV444 120Hz
Sky+ Pro Sat-Receiver HDR10, HLG YUV 4:2:2, 60 Hz
Amazon Fire TV 4k (bis 2017) kein HDR YUV4:2:0, 30 Hz
Amazon Fire TV 4K Ultra-HD (ab 2017) HDR10, Dolby Vision YUV 4:2:2, 60 Hz auch als Stick
Amazon Video App HDR10, Dolby Vision abhängig von TV Software
Netflix App HDR10, Dolby Vision abhängig von TV Software
PC + Grafikkarte HDR10 bis 120 Hz abhängig von Hard-/Software

  

HDR-10

HDR10 ist das am meisten verbreitete HDR-Signal – sowohl bei den Endgeräten als auch bei Filmen und Spielen. Jedes HDR-fähige Display unterstützt HDR-10. Es benutzt für jede der RGB-Farben eine Auflösung von 10 Bit. Damit ist ein vergrößerter Farbumfang nach ITU-Empfehlung 2020 möglich (auch Rec. 2020 oder BT.2020 genannt). HDR-10 ist ein offener Standard. Die Unterstützung ist in der HDMI-Version 2.0b geregelt.

Dolby Vision

Dolby Vision ist ein erweiteter HDR-Standard, der sogar 12-Bit Technik einsetzt und dieses Spektrum dynamisch anpasst. Während bei HDR-10 (vereinfacht gesagt) der hellste und dunkelste Bildpunkt für den ganzen Film festgelegt werden, kann dies mit Dolby Vision für jedes einzelne Bild eingestellt werden. Der Fernseher muss Dolby Vision explizit unterstützen, hierfür ist eine Lizenz nötig. Derzeit gibt es solche TV-Geräte nicht von allen Herstellern. Entsprechende Filme werden vorwiegend per Streaming angeboten. Bei Computerspielen gibt es kaum Angebote, nur die Xbox Series X unterstützt Dolby Vision Gaming. Auch dazwischen geschaltete AV-Receiver müssen für Dolby Vision angepasst werden, da diese das HDMI-Signal nicht unbearbeitet durchlassen. Bei Blu-ray discs ist eine Unterstützung von Dolby Vision möglich, entsprechende Filme werden auch zusätzlich in HDR-10 erstellt. HDR-10 wird in einem weiteren Layer auf die  UltraHD Blu-ray Disc gepresst.

HLG

HLG (Hybrid Log Gamma) ist ein weiterer HDR-Standard, der für TV-Übertragungen eingesetzt wird. Es wird zum Beispiel beim Astra Ultra-HD Demokanal via Satellit eingesetzt. Bei HLG wird das HDR-Bild abwärtskompatibel zu SDR gesendet. Vorteil: Es muss nur ein einziger Datenstrom übertragen werden, um auch Geräte ohne HDR zu versorgen.

HDR10+

Seit 2018 gibt es ein weiteres dynamisches HDR-Format namens HDR10+ (oder auch HDR10 Plus geschrieben). Dieses verwendet wie Dolby Vision variable Farb- und Helligkeitseinstellungen. Für jede Szene kann also ein optimaler Kontrastwert bei der Produktion eingestellt werden. Die Farbtiefe ist auf 10-Bit begrenzt. Dieses HDR-Format lässt sich bei einigen HDR10-fähigen Wiedergabegeräten durch Software updaten. HDR10+ wurde durch Amazon Video, 20th Century Fox, Samsung und Panasonic als offener Standard entwickelt. Eine Liste der Hersteller, die unterstützen HDR10+ unterstützen, gibt es hier. Fast alle 4K Filme, die HDR10+ unterstützen, werden auch in Dolby Vision und HDR10 angeboten.Umgekehrt gibt es aber viele Filme in Dolby Vision ohne Alternative in HDR10+. 

Sind neue HDMI-Kabel erforderlich?

Eine neue Norm für HDMI-Kabel gibt es dagegen nicht. Die bisher mit „HDMI High-Speed with Ethernet“ ausgezeichneten Kabel sollen es auch für Ultra-HD und HDR tun. Allerdings haben es die Kabel mit beträchtlich mehr Datenrate zu tun, als bei deren Entwicklung getestet werden konnte. Bei langen Kabelwegen oder nicht optimaler Qualität kann es hier zu kleinen weißen Punkten im Bild oder einem Schwarzbild kommen. Abhilfe schaffen höherwertige Kabel mit größerem Durchmesser und besserer Abschirmung. Auch der Einsatz eines HDMI Repeaters, einem Signalverstärker, kann bei solchen Problemen helfen.

Optimal sind bei längeren Strecken und Videoauflösungen von 4K HDR und höherer aber HDMI-Glasfaser-Hybrid-Kabel. Dabei wird das Signal über optische Fasern mit sehr geringen Verlsuten übertragen. So sind Distanzen bis zu 100 m möglich.