1.) Also ich muss hier Notebookcheck loben, da sie einige der wenigen Reviewer sind, die sich tatsächlich mit der Präsentation auseinander gesetzt haben statt AMD blind in den Himmel zu loben ohne einen Blick auf die Qualität zu werden. Das sind keine subjektiven Meinungen, sondern eine objektive Analyse des gezeigten Contents. Dass es für ein endgültiges Urteil ein vollständiges Review mit selbst erzeugtem Content braucht sollte klar sein aber eine grobe Einordnung sollte schon einmal möglich sein und da es eine Herstellerpräsentation ist, wurden kaum nur die Schwächen gezeigt.
Wer jetzt keinen 4K Monitor hat, um sich den Vergleich genau anzusehen: Hier ist ein guter Vergleich mit gezoomten Bildern: https://www.youtube.com/watch?v=Mn2bJxNQ47U
2.) Also ich sehe derzeit keine Hinweise, dass es auf der 1060 anders aussieht wie auf einer AMD Karte. Wenn man den Content der 6800 XT und der 1060 vergleicht sollte man folgende Dinge bedenken:
a) Die 1060 lief im Quality Mode (entspricht wahrscheinlich ca. 2560x1440), die 6800 XT lief im Ultra Quality Mode (entspricht wahrscheinlich ca. 3000x1700).
b) Bei der 6800XT war schon der Original Content sehr nebelig und schattig ohne vielen scharfen Texturen. Dies ist eigentlich relativ schlecht für den Vergleich der Qualität geeignet.
c) Das Video der 1060 war nur 1440p d.h. Basisauflösung war noch deutlich niedriger
d) Die gesamten Texturen waren alle zusammen extrem unscharf, selbst im Native Material. Teilweise liegt das wohl an der Youtube Kompression, teilweise an den matschigen Texturen bzw. der Bewegungsunschärfe bei der 1060
Die Aussage von AMD bezog sich darauf, dass sie keine Performanceoptimierungen der FSR Bibliothek für Nvidia Karten machen, was man auch gut in der Demo sieht. Der Performancegewinn bei der 1060 ist im Quality Mode nur ca. 40% während es bei AMD ca. 100% sind.
3.) Ich habe einmal einen Blindtest gemacht (20cm vor dem 4K 65" TV) und den 6800XT Screen (Native vs. Ultra Quality) auf 1080p runter skaliert und dann das Foto in der Windows Foto App wieder in 4K angezeigt (ist denke ich bilinear hochskaliert).
Ergebnis:
Bei Native sehe ich den Unterschied eindeutig, wie es zu erwarten ist.
Bei Ultra Quality sehe ich keinen Unterschied, was doch ziemlich heftig ist. Der Unschärfeeffekt ist also weit höher als sich nur durch die geringere Renderauflösung erklären lassen würde. Hier läuft also eindeutig etwas schief.
4.) Für ein qualitativ gutes Upscaling ist nicht zwingend AI nötig. Als beispiel kann man TSR nennen, das in der Unreal Engine 5 eingesetzt wird: https://www.reddit.com/r/hardware/comments/nozuvo/testing_unreal_engine_5_temporal_super_resolution/
Dieses arbeitet genauso ohne AI bzw. Tensor Cores und spielt ohne nennenswerten Performance Overhead in einer Liga mit DLSS.
Der große Unterschied ist meiner Meinung nach: TSR verwendet wie DLSS 2.0 temporale Informationen (also die Informationen vorhergehender Frames inkl. der Motion Vektoren der einzelnen Objekte). Dadurch sind mehr Informationen vorhanden und meiner Meinung nach ist das in Wirklichkeit der Grund, warum DLSS 2.0 so viel besser aussieht als DLSS 1.0.
Das Problem daran: Um temporale Informationen zur Verfügung zu haben muss man wie bei DLSS viel tiefer in die Engine eingreifen. Für neue Engines kein Problem aber nachträglich in Spiele einbauen bzw. in Spiele, die sich bereits tief in der Entwicklungsphase befinden wird das kein Spielehersteller machen es sei denn AMD macht es wie Nvidia kostenlos ein Team an Entwicklern zu den Spieleherstellern, die die Arbeit gratis machen. Nur AMD hat diese Manpower nicht und braucht eine schnelle Lösung. AMD braucht eine Lösung, die sich sehr schnell ohne viel Aufwand in jede Engine nachträglich einbauen lässt und da bleibt eben nur der Ansatz eines simplen Image Upscalers.