BenQ SW320
Was ist ein HDR Monitor?
Lange Zeit waren die einzigen großen technologischen Änderungen bei Monitor-Herstellern die Auflösung von Full HD über 4K geht es langfristig zu 8K. Doch wirklich alles verändern kann die HDR Technologie – diese bietet ein absolut neues und deutlich besseres Seherlebnis. Doch was verbirgt sich genau dahinter? Und welche effektiven Verbesserungen bringt das Ganze?
Das Ziel der Hersteller ist es natürlich neue Kaufanreize zu schaffen – und das war und ist auch heute immer noch die Auflösung. Doch das dauert – letztlich haben sich erst vor kurzem die meisten Haushalte erst mit Full HD Geräten ausgestattet – und jetzt soll schon eine neue Auflösung – die Ultra HD Auflösung – Einzug halten. Es gibt dabei aber auch regionale Unterschiede – so ist man im asiatischen Raum da schon deutlich weiter – dort kommen schon die ersten 8K Modelle auf den Markt.
Doch vor allem, wenn man auf die Inhalte schaut dann sieht man schon ein recht großes Problem. Auch in heutigen Zeit gibt es bisher kaum Inhalte in Ultra HD – an 8K darf man noch gar nicht denken. Die deutschen Privatsender senden gerade erst in Full HD – und das erst seit kurzer Zeit. Und auch die öffentlich-rechtlichen Sender senden nur mit ein paar Sendern in HD – noch sehr viele Sender flimmern noch in PAL SD über die Monitore. Genauso verbreitet sind noch DVDs – die genau in dieser Auflösung arbeiten.
Doch neben der Auflösung gibt es noch weitere Faktoren, die bestimmen wie wir ein Bild wahrnehmen – so ist es auch der Sitzabstand, der wirklich relevant ist. Aber auch noch die Farbwiedergabe wie HDR.
Hoher Kontrast dank HDR
Bisher kaum beachtet wurde die Darstellung höhere Kontrastumfänge, die das Bildempfinden angenehmer machen. Dann spricht man von High Dynamic Range – kurz auch HDR. Aktuelle Bildschirme sind dazu nicht wirklich in der Lage. Der momentane Standard wird deshalb auch SDR – also Standards Dynamic Range genannt. Das menschliche Auge ist in der Lage einen Kontrastumfang von rund 1:1.000.000 zu erfassen. Doch das schafft ein Monitor nicht wirklich annährend. Das ist aber der Hauptgrund dafür, dass wir Szenen in der Realität deutlich brillanter wahrnehmen als auf einem Monitor.
Doch mit HDR Monitoren soll sich das ändern – deutlich höhere Kontrastumfänge sollen erreicht werden – das Bild ist damit natürlicher und brillanter. In der Vermarktung ist dies deutlich einfacher als mit 4K – aber beides muss man gesehen haben um die Vorteile zu verstehen. Und genau da ist das Problem – auf dem Papier kann man sich das nicht wirklich vorstellen – man muss den Unterschied wirklich sehen. Zwar denken viele, wenn Sie ein HDR Bild betrachten (auch auf einmal normalen Monitor) sie wüssten wie ein echtes HDR Bild aussieht – doch dem ist nicht so. Nur ein echtes HDR Panel – also ein echter HDR Monitor kann ein HDR Bild auch darstellen.
Doch wenn HDR solch eine deutliche Verbesserung liefert – warum wird die Technologie dann kaum eingesetzt oder ist noch nicht wirklich in den Köpfen der Menschen verankert? Der eine Punkt wurde bereits geklärt – man muss es wirklich sehen um es zu verstehen. Der Zweite ist dagegen – oft wird HDR nur mit Fotografie in Verbindung gebracht – doch das hat nicht wirklich was miteinander zu tun.
Generell ist es natürlich gleich – bei der HDR Fotografie werden spezielle Techniken verwendet um Bilder mit höheren Kontrastumfängen abzubilden. Doch dabei wird oft mit einem Trick gearbeitet. So erstellen viele Handys beispielweise einfach drei Bilder mit unterschiedlichen Helligkeitsstufen – am Ende werden diese Bilder zu einem zusammengefügt um ein deutlich kontrastreicheres Bild zu erzeugen.
Kennzeichnungen und Label
Doch wie erreicht man nun einen höheren Kontrast bzw. einen höheren Kontrastumfang auf einem HDR Monitor? Entweder müssen damit die Lichter heller oder die Tiefen deutlich dunkler dargestellt werden. Doch am besten ist HDR wenn beides auch noch gleichzeitig geschieht. Wer sich momentan mit dem Kauf eines Monitors mit HDR beschäftigt sollte wissen, dass es momentan noch keine einheitlichen Standards für diese Technologie gibt. Diese einheitlichen Standards sind gerade erst im Entstehungsprozess. Im TV-Bereich gibt es schon UHD-Premium – dies wurde von der UHD-Alliance entwickelt. Dies ist ein Zusammenschluss diverser Filmstudios, Kamera- und Display-Hersteller sowie Content-Produzenten.
Dabei gibt es vier verschieden Parameter die dabei von den Geräten erfüllt werden müssen. Der wohl einfachste Punkt ist dabei, dass diese Displays die UHD-Auflösung von mindestens 3840x2160 Pixel erreichen müssen. Außerdem müssen sie mit einer Farbtiefe von mindestens 10 Bit arbeiten. Es müssen also je Farbkanal mindestens 1.024 Helligkeitsabstufungen dargestellt werden können – bei den momentanen 8 Bit dagegen sind es nur 256. Außerdem muss das Panel den neuen Farbraum Rec.2020 darstellen können. Dieser wurde als Standard für UHD TVs definiert. Er umfasst fast 75% aller Farben, die auch das menschliche Auge darstellen kann. Das momentane HDTV-Signal beispielsweise schafft nur rund 35% - das ist also eine komplette Verdoppelung der Farben. Doch bis das sich wirklich durchsetzt wird das sicherlich noch Jahre dauern. Ein viertes Kriterium welches entscheidend ist bei diesem Label ist der Kontrastumfang. Dabei müssen die Geräte mindestens 1.000 c/m² erreichen bei der Helligkeit und minimal 0,05 Nit beim dunkelsten Wert. Das würde bedeuten, das ein Kontrastumfang von rund 1:20.000 erreicht wird. Doch davon sind momentane Monitore – auch 4K Monitore wohl leider noch weit entfernt.
Die gesamte Wertschöpfungskette muss mitmachen
Damit sich HDR Monitore wirklich durchsetzen muss die gesamte Produktionskette auf HDR eingestellt werden. Das fängt bei Filmen natürlich an. Diese müssen mit modernen Kameras aufgenommen werden. Aber das Material muss dann natürlich auf HDR-fähigen Medien zum Kunden transportiert werden und mit HDR-fähigen Playern abgespielt werden. Die Ultra HD Blu-Rays ist genau dazu in der Lage – sie 4K Filme in HDR speichern und mit Hilfe von HDMI 2.0a auf den HDR Monitor übertragen. Allerdings entspricht das nicht wieder dem ursprünglichen Standard. Und genau das macht alles so kompliziert. Alle Akteure müssen sich möglichst schnell auf einen Standard einigen, damit alle Glieder in der Kette gut zusammenarbeiten können.
Selbst Geräte mit HDMI 2.0a gibt es noch kaum auf dem Markt. So gibt es auch Ultra HD Blu-Rays momentan noch kaum sowie deren Abspielgeräte. Am besten findet man solche Inhalte dagegen noch bei Streaming-Diensten wie Amazon Prime oder Netflix. Laut Netflix wird und soll HDR mehr Einschlagen als 4K bei den Konsumenten. Und das ist vermutlich auch logisch – der Konsument sieht den Unterschied bei einem HDR Monitor deutlich mehr als bei einem 4K Monitore.
Doch auch bei den Formaten geht es weiter. Dies betrifft einem natürlich bei einem TV mehr als bei einem HDR Monitor. Dort müssen vor allem die Hersteller von Software und Games auf den HDR Zug aufspringen. Will man jedoch auch Filme oder Serien über den HDR Monitor betrachten werden eben auch diese Formate relevant. Im Wesentlichen gibt es momentan zwei Standards die sich momentan um den HDR-Seig streiten – HDR 10 (offener Standard) und Dolby Vision (Lizenz von Dolby Laboratories).
HDR 10 bietet eine 10 Bit Farbtiefe und wird auch von der UHD-Alliance gefördert. Da die momentanen UHD Blu-Rays damit gemastered werden könnte es sein, dass sich dieser Standard durchsetzt. DolbyVision dagegen setzt auf 12 Bit und kann damit deutlich mehr Helligkeitsabstufungen darstellen als HDR 10. Außerdem sind die Metadaten von Dolby Vision frame-genau - der HDR Monitor bekommt also für jedes einzelne Bild eine Information wie er das am besten darstellen kann – bei HDR 10 dagegen werden diese Infos einmal festgelegt und gelten dann für den gesamten Film. Somit setzt Dolby Vision deutlich höhere Maßstäbe als HDR 10.
Es zeichnet sich ein ähnliches Rennen ab wie bei den DVD-Nachfolgern – Blu-Rays vs. HDDVD. Momentan wird vor allem im Consumer-Bereich HDR immer weiter vorangetrieben. Deutlich langsamer wächst HDR im professionellen Bereich.
HDR bei NVIDIA erklärt
Voraussetzungen für HDR Monitore
Momentan gibt es noch keine Monitore bzw. sehr wenige, die alle Voraussetzungen für HDR erfüllen. Doch auch die Hardware des angeschlossenen Laptops oder Rechners muss mitspielen. Wichtig ist dabei die Grafikkarte. Diese muss HDR unterstützen. Bei NVIDIA sind dies alle Maxwell GPUs der GTX 900 und alle Pascal-GPUs der GTX 1000 Reihe. Bei AMD bekommt man das auch schon bei deutlich älteren Modellen. Übrigens AMD setzt auf den Dolby Vision Standard.
Wichtig ist dann natürlich noch der Anschluss des Monitors – dieser muss genügend Bandbreite liefern, damit die Signale auch mit 10 Bit übertragen werden können bei der oft gewünschten 4K Auflösung.
Doch die Hersteller von Grafikkarten haben bereits erkannt wie wichtig das Thema sein wird und arbeiten daran günstige Consumer-Grafikkarten auf den Markt zu bringen. Es gibt von beiden Herstellern bereits viel Info-Material darüber wie gut ein Bild mit HDR aussehen kann – auch nur mit Full HD Auflösung.
So sind AMD Grafikkarten der Baureihe R9 300 bereits in der Lange HDR Bilder in 1080p mit schnellen 120 Hertz wiederzugeben. Wünscht man 4K Muss man sich mit weniger FPS zufriedengeben. Das Problem mit den Übertragungsraten sollte sich mit DisplayPort 1.4 und HDMI 2.0b aber gelöst haben. Wichtig ist natürlich auch, dass der passende HEVC-Codec unterstützt wird.
Die ersten Monitore mit echtem HDR sollen Anfang 2017 auf den Markt kommen.