"Game Changer" DLSS? Der ultimative Praxistest von DLSS 2.3 mit Benchmarks und Video-Vergleichen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu "Game Changer" DLSS? Der ultimative Praxistest von DLSS 2.3 mit Benchmarks und Video-Vergleichen

Nvidias Deep Learning Super Sampling, kurz DLSS, mauserte sich in den letzten Monaten zu einem echten Mehrwert für Geforce-RTX-Nutzer. Wir nehmen diese Entwicklung zum Anlass, die aktuelle DLSS-Version 2.3 genauestens unter die Lupe zu nehmen - erstmals mit Videos anstelle von Screenshots, doch natürlich kommen auch die Benchmarks nicht zu kurz.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: "Game Changer" DLSS? Der ultimative Praxistest von DLSS 2.3 mit Benchmarks und Video-Vergleichen
 
Besonders eindrücklich sind die Fälle, bei denen DLSS trotz vieler eingesparter Pixel ein besseres Bild zeichnet als gängige Temporal-AA-Verfahren. Möglich wird all das durch Nvidias umstrittene Entscheidung, die Upsampling-Zusatzarbeit auf spezialisierte Rechenkerne zu legen, sodass DLSS exklusiv auf Geforce-Grafikkarten der Reihen RTX 20 und RTX 30 verfügbar ist.
DLSS ist tatsächlich ein absoluter Gamechanger, mit Version 2.3 fast perfektioniert, und für mich ein Grund immer auf Nvidia zu setzen sofern AMD oder Intel nichts Ähnliches anbieten (wobei Intel's Lösung auch nicht schlecht scheint).

Schön zu sehen welch Riesennutzen die Tensor Cores haben, ich weiß noch wie sehr man zu Turing Release (auch hier im Forum) Nvidia kritisiert hat auf KI Kerne zu setzen, aber gerade die sorgen dafür dass praktisch alle GPU's inkl. der RTX 2060 eine deutlich höhere Lebenszeit haben.
 
War von Anfang an DLSS sehr angetan und mittlerweile ist es echt ein richtig fettes Feature. FSR habe ich auch probiert aber das ist so lala, DLSS hat da schon einiges mehr auf dem Kasten.
 
Schön zu sehen welch Riesennutzen die Tensor Cores haben, ich weiß noch wie sehr man zu Turing Release (auch hier im Forum) Nvidia kritisiert hat auf KI Kerne zu setzen, aber gerade die sorgen dafür dass praktisch alle GPU's inkl. der RTX 2060 eine deutlich höhere Lebenszeit haben.
Wollen wir mal nicht so tun als hätte es nicht Jahre gebraucht bis dabei etwas nützliches heraus kommt. ;)


@PCGH
Großes Lob das ihr nicht nur die Dickschiffe gebencht habt. :hail:
 
Ich finde die Sichtweise mancher hier sehr interessant. Ja DLSS ist eine wirklich gute Möglichkeit Performance rauszuholen aber ein Feature? Nein! Ein Feature wäre es wenn es alte Hardware wiederbeleben und nochmals brauchbar machen würde. Aktuell ist es eine Lifeline ohne die NVIDIA sehr sehr schlecht aussehen würde. Vor noch nicht all zu langer Zeit versuchte NVIDIA 4K Gaming zu verkaufen...dies hat selbst mit Highend Hardware nicht in spielbaren FPS durchweg funktioniert und darauf folgte Raytracing welches ebenfalls so performant wie eine Kartoffel im Laufrad lief. Keine Frage das dies Technikfeatures der Zukunft sind und definitiv zum Gaming gehören aber dann bitte salonfähig und nicht in Form von "ich brauch Beta Hardware" die überteuert ist. Wenn selbst eine 3080ti in den hier gelisteten Benchmarks nicht mal die 60FPS in 4K schafft dann haben die Features die NVIDIA uns verkaufen will vollends versagt. Ich kaufe keine Grafikkarte die weit über 1k Euro liegt um in FHD rumzueiern um spielbare Werte zu bekommen. Dann kommt noch dazu das hier Feauteres wie rBar zum Einsatz kommen (wobei ich sagen muss ich weiss nicht wie stark die sich auswirken). HighEnd Hardware ist nicht HighEnd wenn ich auf LowEnd Settings zocken muss um spielbare FPS zu erhalten.
Und bevor mir AMD Fanboy Kommentare an den Kopf geworfen werden...ja ich habe aktuell eine RX6800XT und davor hatte ich eine GTX1070...und war seit meiner alten 660ti durchweg bei NVIDIA. Ich bin Hardwarefanboy und mehr auch nicht aber NVIDIA in den Himmel loben und sich all zu sehr blenden lassen von diesen "Marketing-Gags" sollte man auch nicht. DLSS wurde nicht kreiert damit ihr eure alte Hardware noch weiter nutzen könnt...sonst würde das "Feature" weiter abwärts kompatibel sein und entsprechend anders funktionieren.
 
DLSS wurde nicht kreiert damit ihr eure alte Hardware noch weiter nutzen könnt...sonst würde das "Feature" weiter abwärts kompatibel sein und entsprechend anders funktionieren.
Der Punkt hat sich aber in ein paar Jahren komplett erledigt wenn jeder so langsam auf eine kompatible Karte umgestiegen ist, dann kann man es ganz gut zur Verlängerung der Lebensdauer nutzen, solange steigt man halt auf FSR um.
Solange NV nicht auf so tolle Ideen kommt wie DLSS 3.0 aufwärts funktioniert nur mit der RTX 3000 oder 4000 Serie kann man sich doch drüber freuen das es sowas gibt.
 
Der Punkt hat sich aber in ein paar Jahren komplett erledigt wenn jeder so langsam auf eine kompatible Karte umgestiegen ist, dann kann man es ganz gut zur Verlängerung der Lebensdauer nutzen, solange steigt man halt auf FSR um.
Solange NV nicht auf so tolle Ideen kommt wie DLSS 3.0 aufwärts funktioniert nur mit der RTX 3000 oder 4000 Serie kann man sich doch drüber freuen das es sowas gibt.
Ich versuche deinen Optimismus zu teilen :) Aber da NVIDIA ja Geld verdienen will...sei Ihnen auch gegönnt (wenns dem Kunden gegenüber Fair geschieht) dann erfinden die sicher was neues. Aus technischer Sicht finde ich die Entwicklungen sehr spannend aber was daraus gemacht wird ist eher traurig :/
Raytracing ist bisher auch nur bescheiden brauchbar. Licht und Schatteneffekte werden bisher zur Atmosphäre beitragend gut implementiert während die Spiegelungen häufig eher "meh" sind und für mich optisch eher mehr kaputt machen als aufzuwerten.
 
Zuletzt bearbeitet:
Schön zu sehen welch Riesennutzen die Tensor Cores haben, ich weiß noch wie sehr man zu Turing Release (auch hier im Forum) Nvidia kritisiert hat auf KI Kerne zu setzen, aber gerade die sorgen dafür dass praktisch alle GPU's inkl. der RTX 2060 eine deutlich höhere Lebenszeit haben.
Joar, das ist allerdings nicht ganz klar, ob DLSS wirklich zwingend Tensor Kerne braucht. Einige meinen, dass eine langsamere Variante, die auf den Vektoreinheiten läuft es auch täte.
 
Also meine Erfahrungen mit DLSS sind eher negativ. Keine Ahnung obs an meiner UWQHD Auflösung liegt, aber ich find das Bild mit DLSS schrecklich, egal wie. Habs aber auch nur bei Red Dead 2 (was ihr vergessen habt) und FS22 probiert. Sowohl der Leistungsgewinn als auch das Bild waren eher unterirdisch. Ironischerweise läuft FS22 mit FSR weit besser. Tragisch genug das die Gurkengrafik auf nem 3500 Euro PC keine stabilen 60 FPS erreicht. Und ja mein Setup ist bestens getuned. DLSS 2.3 war beim FS bis diese Woche ein Showcase für "Wenn Amateure etwas implementieren". Das Ghosting war vom Feinsten. Und man hat auch Framedrops, das Bild wird hässlich. Mit FSR hingegen kein Problem. Und das auf ner 3080. Schon peinlich, denke da wird sich Giants vom Jensen was anhören müssen. DLAA ist mir da auch wurscht, da lieber die Auflösung noch bissel hochskaliert, dann wirds schärfer. DLAA ist was für Leute die immer noch FHD zocken.

Alles in allem halte ich es wie jeher. Reicht die Leistung nicht, wird aufgerüstet. Muss man sich halt leisten können, oder man nimmt halt ne Konsole.
 
Also meine Erfahrungen mit DLSS sind eher negativ. Keine Ahnung obs an meiner UWQHD Auflösung liegt, aber ich find das Bild mit DLSS schrecklich, egal wie. Habs aber auch nur bei Red Dead 2 (was ihr vergessen habt) und FS22 probiert.
In Cyberpunk mit Raytracing ist der Zugewinn durch DLSS gigantisch, nur so kann man sich auf halbwegs bezahlbarer Hardware hohe Einstellungen plus RT gönnen. Das Bild wird auf Performance-Settings spürbar schlechter, aber die Zugewinne sind extrem.

RDR2 hatte mit die schlechteste DLSS-Implementierung der letzten Zeit.
 
Zuletzt bearbeitet:
Danke für diesen tollen Artikel PCGH!
ich gebe zu - ich schau mir meistens immer nur euer (ausführliches) Fazit an - aber das liest sich bereits toll.

ich finde diese Technik fantastisch.

ich freue mich wenn ich dann im Jahre 2023 eine RTX4090 erwerben kann - mit richtig viel raytracing und DLSS power.

nativ spielen lohnt sich imo nicht mehr (ich bin ja sogar mit 1080p auf meinem 4K Oled mehr als zufrieden - trotz artefaktreichem Streaming.

in 2023 nehme ich dann wieder mal 5000€ in die Hand um mir einen mega geilen pc zusammen zu Schuster.

das wird edel!
 
Danke für diesen tollen Artikel PCGH!
ich gebe zu - ich schau mir meistens immer nur euer (ausführliches) Fazit an - aber das liest sich bereits toll.

ich finde diese Technik fantastisch.

ich freue mich wenn ich dann im Jahre 2023 eine RTX4090 erwerben kann - mit richtig viel raytracing und DLSS power.

nativ spielen lohnt sich imo nicht mehr (ich bin ja sogar mit 1080p auf meinem 4K Oled mehr als zufrieden - trotz artefaktreichem Streaming.

in 2023 nehme ich dann wieder mal 5000€ in die Hand um mir einen mega geilen pc zusammen zu Schuster.

das wird edel!
DLSS Power....das Feature soll eher ermöglichen anstelle von Power benötigen/verbrauchen.
Ansonsten eher unsure ob sarkastisch oder nicht :gruebel:
 
Zurück