Sinnloses Nvidia Gelaber

Wie kommst du darauf dass man dafür zwingend eine KI benötigt? Du verarbeitest Bilddaten vergangener Frames um weitere Abtastpunkte zu bestimmen. Ich sehe da keinen Grund zwingend eine KI zu verwenden.
Was macht der KI Part denn, wenn er nicht benötigt wird und wieso investieren die Ingenieure bei Nvidia dann jahrelang Zeit und Arbeit?
Witzigerweise kommen sämtliche anderen Ansätze bisher nicht an DLSS2 ran, also muss der KI Part ja irgendwas bringen, wenn man stellenweise sogar nativ outperformt.
 
22 FPS sind nicht so viel schlimmer beim Input lag.
Mir geht es eher drum, dass man mit DLSS 2 - also ohne extra Frames bei WCCFTech auf 61 FPS kommt... also 32 ms lag.

22 FPS = alle 45ms ein Frame
60 FPS = alle 16ms ein Frame

Da drauf kommt dann der restliche System-Input Lag. Ja, der Input Lag wird mit DLSS 3.0 nicht besser, es zählt weiterhin die interne Renderauflösung und wie viele "native" Frames da rauskommen. Trotzdem sieht ein Spiel bei 170 FPS einfach "smoother" aus als es mit der Hälfte aussehen würde.

Und, jetzt kommts, man spart damit sogar Strom! Das war doch sonst immer so wichtig, oder nicht? Jetzt egal oder wie? Wird plötzlich umgeschwenkt auf "ja aber der Input Lag!!!"? Es wird echt lächerlich...
 
Zuletzt bearbeitet von einem Moderator:
22 FPS = alle 45ms ein Frame
60 FPS = alle 33ms ein Frame
Hmm... 1/60 sind bei mir 18ms Edit: 33ms wären 30 fps /Edit
Aber bei den 22 FPS hast du Recht

Da drauf kommt dann der restliche System-Input Lag. Ja, der Input Lag wird mit DLSS 3.0 nicht besser, es zählt weiterhin die interne Renderauflösung und wie viele "native" Frames da rauskommen. Trotzdem sieht ein Spiel bei 170 FPS einfach "smoother" aus als es mit der Hälfte aussehen würde.
Ja, es sieht "smoother" aus - hab ich sogar mehrfach gesagt.
Edit: Hilft halt nix, wenn es um Shooter geht, wie Nvidia in dem andren Artikel als Beispiel nimmt.
Damit ist das Input Lag Argument um einen Thread gesprungen.

Und, jetzt kommts, man spart damit sogar Strom! Das war doch sonst immer so wichtig, oder nicht? Jetzt egal oder wie? Wird plötzlich umgeschwenkt auf "ja aber der Input Lag!!!"? Es wird echt lächerlich...
Öhm.. Selbst DLSS 2 spart Strom, wenn ich mich recht erinnere.
Das ist also kein Zusatzfeature von DLSS3.

Das Argument mit dem Input Lag kam allerdings nicht von "unserer" Seite... da musst du die anderen Beiträge nochmal lesen.
 
Nvidia hat bis jetzt nur geradeaus fahrende Autos gezeigt... das kann auch jeder Fernseher so glattbügeln.
Die Frage ist nicht ob der Fernseher dir das glattbügeln kann (Kann er mit entsprechenden Input Lag) sondern ob er vorhersagen treffen kann.
Und zugegeben die Wahl des Beispiels ist wirklich schwach aber daraufhin sich hinzustellen und die Technik abzuschreiben wo wir noch nichts neutrales gesehen haben und das ganze runterzureden ist halt auch nicht richtig.

Was macht der KI Part denn, wenn er nicht benötigt wird und wieso investieren die Ingenieure bei Nvidia jahrelang Hirnschmalz, wenn es doch nicht benötigt wird?
Witzigerweise kommen sämtliche anderen Ansätze bisher nicht an DLSS2 ran, also muss der KI Part ja irgendwas bringen, wenn man stellenweise sogar nativ outperformt.
Ob eine KI oder klassische Algorithmen besser sind kann ich nicht bewerten, dafür bin ich nicht tief genug in diesem Bereich drin. Generell gibt es aber heuristiken die sich genau mit solchen Problematiken beschäftigen von daher sehe ich nicht zwingend eine Notwendigkeit der KI. Und genau darauf habe ich mich auch bezogen.
Was am Ende besser ist wird vermutlich wie fast immer abhängig von Trade-Offs sein. Solange das Ergebnis stimmt ist es mir aber egal was verwendet wird.
 
Generell gibt es aber heuristiken die sich genau mit solchen Problematiken beschäftigen von daher sehe ich nicht zwingend eine Notwendigkeit der KI. Und genau darauf habe ich mich auch bezogen.
Ja die gibt es, sind aber nicht so gut wie DLSS: http://behindthepixels.io/assets/files/DLSS2.0.pdf
Ab Seite 28 gehts los.

Es gibt doch sogar einige Tools/Dienste, die mittels Deep Learning Bilder ohne großen verlust hochskalieren.
Das war vor der Deep Learning Era so hochwertig nicht möglich.
 
Die Frage ist nicht ob der Fernseher dir das glattbügeln kann (Kann er mit entsprechenden Input Lag) sondern ob er vorhersagen treffen kann.
Und zugegeben die Wahl des Beispiels ist wirklich schwach aber daraufhin sich hinzustellen und die Technik abzuschreiben wo wir noch nichts neutrales gesehen haben und das ganze runterzureden ist halt auch nicht richtig.
Schau dir bitte das Video zum WCCFtech Artikel an.
Die 4090 kam ohne DLSS bei 1440p auf über 50 fps. mit DLSS3 frame generation auf 170 fps mit 55ms Input lag.
Das würde ich nicht unbedingt als Beibehaltung des Lags bezeichnen...
 
Hmm... 1/60 sind bei mir 18ms Edit: 33ms wären 30 fps /Edit
Aber bei den 22 FPS hast du Recht
Stimmt, vertippt. Da stand vorher 30 FPS -> das wären 33ms pro Frame. Dachte mir dann aber dass 22 FPS -> 30 FPS als Vergleich wenig Sinn macht, vergessen die ms anzupassen. :schief:

Ja, es sieht "smoother" aus - hab ich sogar mehrfach gesagt.
Edit: Hilft halt nix, wenn es um Shooter geht, wie Nvidia in dem andren Artikel als Beispiel nimmt.
Damit ist das Input Lag Argument um einen Thread gesprungen.
Die Shooter FPS Folie ist ohne DLSS 3.0. Steht drunter welche Settings angewendet wurden.

Öhm.. Selbst DLSS 2 spart Strom, wenn ich mich recht erinnere.
Das ist also kein Zusatzfeature von DLSS3.
DLSS 2.0 "kann" Strom sparen wenn man die FPS begrenzt. Sonst natürlich nicht wenn nach oben alles offen ist. Und DLSS 3.0 ermöglicht hier noch mal eine deutlich höhere Einsparung bei selbem Framelimit.
 
Schau dir bitte das Video zum WCCFtech Artikel an.
Die 4090 kam ohne DLSS bei 1440p auf über 50 fps. mit DLSS3 frame generation auf 170 fps mit 55ms Input lag.
Das würde ich nicht unbedingt als Beibehaltung des Lags bezeichnen...
At its native resolution, without DLSS and Reflex, the game ran at an average of 59 FPS (49 FPS 1% Lows) while looking at a fixed frame & a latency of 72-75ms.
with DLSS 3 enabled & an average latency of 53.00ms

53ms sind besser als 72-75ms.

Hier die Tabelle:
Screenshot 2022-09-23 181308.png


Mit eingeschaltetem DLSS3 habe ich wesentlich mehr FPS (Faktor 2-4) und eine bessere Latenz als nativ. Ich kann absolut nicht nachvollziehen, weshalb man das krampfhaft versucht schlecht zu reden und nach jedem Grashalm greift, um nicht doch irgendwie was kritisches zu finden.
 
Zuletzt bearbeitet:
Ja die gibt es, sind aber nicht so gut wie DLSS: http://behindthepixels.io/assets/files/DLSS2.0.pdf
Ab Seite 28 gehts los.
Sagt leider nichts dazu aus. Es handelt sich um die klassischen vorgehen. Die ja gerade extrem Problembehaftet sind, weil diese keinerlei Prädiktion zukünftiger Abtastpunkte vornehmen.
Es gibt doch sogar einige Tools/Dienste, die mittels Deep Learning Bilder ohne großen verlust hochskalieren.
Das war vor der Deep Learning Era so hochwertig nicht möglich.
Das ist für DLSS aber nicht entscheidend, da wird ja mit Hilfe des NN entschieden welche Bilddaten noch genutzt werden und welche nicht.
Schau dir bitte das Video zum WCCFtech Artikel an.
Die 4090 kam ohne DLSS bei 1440p auf über 50 fps. mit DLSS3 frame generation auf 170 fps mit 55ms Input lag.
Das würde ich nicht unbedingt als Beibehaltung des Lags bezeichnen...
Abwarten bis man wirkliche Tests hat...
 
Da eure gesamte Diskussion überhaupt nichts mit dem Thema EVGA zu tun hatte, ist diese nun ausgelagert worden.

Wer den thread geerbt hat, darf ihn gern umbennen.

Macht hier von mir aus was ihr wollt, nicht umsonst seid ihr nun in der Rumpelkammer :kaffee:
 
Ja das ist proprietär ist und die monitore sind durch das modul auch sehr teuer.

Ich wollte in meiner Auflistung nur ein paar Punkte , die es einem langjährigen Fan der Marke wie mir Bauchschmerzen bereiten können.

Im Endeffekt wollte ich darauf hinaus, dass einige Leute diese Punkte anführen könnten um argumentieren könnten das nVidia "evil" ist. Und einige leute diese Fauxpas als ein Beispiel für nVidias schuld am Weggang von EVGA anführen könnten, obwohl wir nicht wissen was genau die Gründe waren. Habe das wohl nicht klargemacht. Warum ich hier nun als Anstifter des Themas mitverschoben wurde, ist mir nicht ganz so klar.

Natürlich kocht nv als marktführer sein Süppchen. Entweder man frisst oder stirbt (geht zu amd).
Ist nV deswegen evil? Ne die verhalten sich so so wie jedes indexnotierte Unternehmen.
 
Naja, G-Sync ist ja heute auch mit FreeSync Monitore kompatibel.

Früher musste für solch ein Monitor eine AMD Grafikkarte genutzt werden und so hieß es meist in Kaufberatung, sich eine AMD Grafikkarte verbauen zu müssen. Weil diese Monitore eher im niedrigen Preisbereich liegen. Heute kann man sich dennoch Nvidia Grafikkarten dazu kaufen. Nvidia hat in diesem Sinn sogar diese Sparte durch ihre kompatibel verbessert.
 
Es sind immer noch adaptive sync Monitore.
Nvidia hat sich am Anfang einfach nur geweigert den Standard im Treiber zu unterstützen.
Die Vorteile eines Gsync Moduls werden auch immer geringer und die Nachteile größer.
Siehe zb Lüfter zur Kühlung des v2 Moduls, Begrenzung auf DP 1.2 oder DP 1.4.
Die Scaler in den adaptive sync Monitoren werden immer besser und gerade HDMI2.1 bringt gewisse Vorteile mit sich.
 
Angabe von Umsatz durch Verkauf an Miningfarmen und Strafe durch SEC
Lol das hab ich ja gar nicht gewusst:
The SEC’s order finds that, during consecutive quarters in NVIDIA’s fiscal year 2018, the company failed to disclose that cryptomining was a significant element of its material revenue growth from the sale of its graphics processing units (GPUs) designed and marketed for gaming. Cryptomining is the process of obtaining crypto rewards in exchange for verifying crypto transactions on distributed ledgers. As demand for and interest in crypto rose in 2017, NVIDIA customers increasingly used its gaming GPUs for cryptomining.

Jetzt haben bekannte Forenuser, die immer Gegenteiliges behauptet haben, es auch nochmal schwarz auf weiß :D
 
Zurück