HDMIQuotezwei HDMI-Schnittstellen mit 4K60-Support.
"4K60" ist leider nur der alte HDMI 2.0 aus 2013, statt echtem HDMI 2.1 (HDMI 2.1 FRL5 (40G) / HDMI 2.1 FRL6 (48G))
Seitdem das HDMI Forum erlaubt HDMI 2.0 auch HDMI 2.1 zu nennen, wäre es schön, wenn ihr die echte HDMI 2.1 Bandbreite herausfinden würdet, z. B. evtl. so: [4].
QuoteDa sind wir auch schon bei der Konkurrenz, die mit den AMD-Prozessoren die deutlich schnelleren iGPUs besitzt. Wer Minisforum treu bleiben will, kann sich einmal den Minisforum Venus Series UM790 Pro anschauen. Diesen gibt es schon ab 585 Euro.
In der Tat, denn für ihren UM790 wirbt die Firma mit:
QuoteHDMI 2.1 (4K@144Hz) ×2
Das sieht nach echtem HDMI 2.1 FRL5 (40G) aus. Und die im UM790 verbaute iGPU kann auch AV1 dekodieren. Das, die viel schnelleren Zen 4 CPU-Kerne und die ca. 3-mal schnellere iGPU sind den mehr als doppelten Aufpreis trotzdem mehr als wert, denn man benutzt so einen Mini-PC locker 3 Jahre, wenn nicht eher 4-6 Jahre. Außer man möchte sich mit langsamer CPU herumquälen.
4K HDR Videos am OLED TV schauen und browsen/surfen im WebGerade, wenn man keinen Bildschirm hat, möchte man seinen OLED TV anschließen, um 4K HDR Inhalte zu genießen. 60 Hz, 10 bit für HDR und volle/normale/native 4:4:4 Farbunterabtastung benötigen 15,68 Gbit/s¹. Wenn es aber nur ein HDMI 2.0 Ausgang ist, wird er nicht mal das schaffen (14,40 Gbit/s < 15,68 Gbit/s). Videos auf YouTube sind 4:2:0, aber zum im Web surfen und Office, sollte man schon auf die normalen 4:4:4 achten, außer man möchte verwaschene Regenbogenschrift (=kein 4:4:4) oder 30 Hz statt 60 Hz.
HDR Gaming am OLED TV4K HDRModerne Spiele, die HDR können, schafft weder die hier verbaute INTEL iGPU, noch die 60% schnellere AMD iGPU in einer Auflösung von 4K und mindestens 60 Hz. Also lassen wir das aus.
FullHD/1080p HDRDie hier verbaute INTEL iGPU ist selbst für 1080p nicht geeignet, aber der HDMI 2.0 hätte die Bandbreite: Hier reicht die HDMI 2.0 Bandbreite auch für die nativen 120 Hz der OLED TVs aus². Ob jedoch der jeweilige OLED TV, HDR in FullHD zulässt, oder ob er unbedingt ein 4K Signal und/oder echts HDMI 2.1 FRL (=HDMI 2.1 FRL5 (40G), HDMI 2.1 FRL6 (48G)) braucht?
¹ linustechtips.com/topic/729232-guide-to-display-cables-adapters-v2/?section=calc&H=3840&V=2160&F=60&bpc=10&calculations=show&formulas=show (Dieser Rechner ist sehr nützlich und ist besser als von den ganzen Firmen/"professionellen" Seiten, die nicht erklären können.)
oder ohne URL:
15,68 Gbit/s (15,678432 -> 15,68) = ((3840+80)*(2160+62)*3*10*1*60)/10^9.
* 3 ist Anzahl der Subpixel (RGB) pro Pixel
* 10 ist die Farbtiefe in bit pro Subpixel (10 bit sind für HDR nötig)
* 1 steht für volle/normale/native 4:4:4 Farbunterabtastung (für 4:2:2 benutze 2/3 und für 4:2:0 benutze 1/2)
* 60 [Hz]
* +80 und +62 kommen vom CVT-R2 Timing Format
15,68 stimmt mit dem Wert in en.wikipedia.org/wiki/HDMI#Refresh_frequency_limits_for_HDR10_video überein.
² linustechtips.com/topic/729232-guide-to-display-cables-adapters-v2/?section=calc&mode=maxfreq&H=1920&V=1080&F=120&bpc=10&calculations=show&formulas=show
oder ohne URL:
8,24 Gbit/s (8,2368 -> 8,24) = ((1920+80)*(1080+64)*3*10*1*120)/10^9.
8,24 stimmt mit dem Wert in en.wikipedia.org/wiki/HDMI#Refresh_frequency_limits_for_HDR10_video überein.
Fake HDMI 2.1 enttarnen[..] Und evtl. gehts auch kostenlos, ohne teure Messgeräte, zumindest das wichtigste: Wenn man/ich bei Linux mit einer AMD Radeon RX 6000 GPU* auf einem 4K Bildschirm von 60Hz zu 120Hz wechselt, bekommt man/ich nur chroma 4:2:0 angezeigt, da unter Linux noch kein HDMI 2.1 unterstützt wird, obwohl die Hardware es könnte: Kleine Schrift bekommt dann einen "Regenbogen" Effekt, den man mit den bloßen Augen sehr gut sieht. Dann weiß man/ich, dass HDMI 2.0 statt HDMI 2.1 verwendet wird, denn sonst würde die Schrift genauso wie mit 60 Hz super scharf und farbkorrekt aussehen.
* = Radeon RX 6000 Series kann bis HDMI 2.1 FRL5 (40G) und Radeon RX 7000 soll bis HDMI 2.1 FRL6 (48G) können. Wie man dann zwischen FRL4 (32G) (Legion Pro z.B. soll nur das können, ohne vBIOS mod), FRL5 (40G) und FRL6 (48G) unterscheiden würde (bei 32G evtl. auf 10 bit umschalten), müsste man gucken.