News:

Willkommen im Notebookcheck.com Forum! Hier können sie über alle unsere Artikel und allgemein über Notebook relevante Dinge disuktieren. Viel Spass!

Main Menu

GeForce RTX 5090 schafft Berichten zufolge in Cyberpunk 2077 mit Path Tracing keine 30 FPS und braucht DLSS, um 60 FPS zu erreichen

Started by Redaktion, January 17, 2025, 18:04:43

Previous topic - Next topic

Redaktion

Die RTX 5090 Desktop-GPU wurde in Cyberpunk 2077 einmal mit sowie ohne DLSS und Frame Generation getestet. Mit aktiviertem Path Tracing bei 4K-Auflösung und Ultra Preset benötigt die RTX 5090 DLSS, um die durchschnittliche Framerate auf über 60 FPS zu steigern. Um die 100+ FPS-Marke zu erreichen, ist Frame Generation jedoch unerlässlich.

https://www.notebookcheck.com/GeForce-RTX-5090-schafft-Berichten-zufolge-in-Cyberpunk-2077-mit-Path-Tracing-keine-30-FPS-und-braucht-DLSS-um-60-FPS-zu-erreichen.948849.0.html


DetisdaLef

Wirklich verwunderlich ist das jetzt nicht. Die 5090 dürfte ca 25% mehr Leistung haben als die 4090 ohne DLSS. Spiele die nativ in den Höchsten Einstellungen auf der 4090 schlecht laufen, werden auch auf der 5090 noch relativ schlecht laufen. Sonst hätte sie eher 125% mehr Leistung bekommen müssen.

Es wird aber auch alle paar Jahre wieder etwas neues gebracht das die Framezahlen einbrechen lässt. War es zum Start von Cyberpunk Raytracing Psycho das die 3090 einbrechen hat lassen, ist es nun eben Pathtracing für die 4090 und zum Teil auch 5090. Will man alles haben muss man DLSS nutzen. Geht man bei Pathtracing 2 Stufen runter wird das Spiel sicher auch nativ mit ansonsten Max Settings Gut laufen.

Zur nächsten Generation wird sicher wieder etwas neues erfunden das dieses Spiel Wiederholt.

RobertJasiek

Quote from: DetisdaLef on January 17, 2025, 20:28:57Die 5090 dürfte ca 25% mehr Leistung haben als die 4090

Eher 28% mehr, denn 575W / 450W ~= 1,28. Leistung aka Wattverbrauch;) Das Mehr an Kernen setzt sich fast 1:1 in mehr Watt um, weil es kaum Strukturgrößenverkleinerung gibt. The more (cores) you buy the more (money) you lose. (Für Tiers unterhalb der 90er gilt außerdem: The later (generation) you buy the more (money for about the same numbers of cores) you lose.

eastcoastpete

Die große Frage bei dem Test ist allerdings, ob eine 4090 es denn besser konnte?  Daß ein Spiel wie Cyberpunk in 4K auch die stärkste GPU fordern kann ist bekannt, vor allem wenn man alle Settings auf "Ultra" stellt, kein Upscaling ermöglicht und trotzdem Ray/Pathtracing dazu haben will. 

Sascha Pürner

Zum Glück bin ich auch mit meiner auf 43 Watt gedrosselten A730m Glücklich am Cyberpunk in FullHD spielen. Für was gibt es Schieberegler?^^ Ich könnte das auch mit einer ungedrosselten auf nahezu Maximalen Details mit 42 Bildern spielen. Natürlich Pathracing aus dann.

Da würde mir 10 mal mehr Stromverbrauch schon mehr Sorgen bereiten, als der hohe Anschaffungspreis heutzutage für eine Grafikkarte der Oberklasse, die dann, wenn sie auch noch Kaputt geht, wohl mehr Tränen für mich Übrig hätte, als schöne Bilder in... Immerhin 40ms Reaktionszeit...

Alleine dieser Wert würde mich abhalten davon, allzu viel drauf zu setzen. Ich spiele nicht bei so einer Latenz. Das ist ein Unding. In der Zeit mache ich ja drei Gegner platt normalerweise.^^
Sollen die 50 Menschen ihre Freude damit haben. Mir und bestimmt vielen anderen reicht auch weniger Bildqualität für weniger Stromaufnahme und um weniger Anschaffungskosten. :-)

mikemarkus

So doof es auch klingen mag aber bei dem Leistungsplus und dem Preis macht es einfach kaum einen Sinn zu einem Upgrade von 4090 zu 5090. Schlussendlich ist die Software entscheidend. Man hätte so einiges auch in den Vorgängern erreichen können aber man behält es sich für "neue Modelle" auf um damit besser da zu stehen. Das beweist sich leider immer wieder von ganz alleine. Und dann gibt es halt die Menschen, die immer und immer wieder darauf reinfallen.🤦�♂️

Quick Reply

Name:
Email:
Verification:
Please leave this box empty:

Shortcuts: ALT+S post or ALT+P preview