Sinnloses Nvidia Gelaber

Noch einmal..
Wenn man mit Absicht einen Schalter im Compiler nicht aktiviert, mehr muss nicht gemacht werden ist es aktiv langsamer machen

Aha, also unterstellst Du Absicht beim unterlassen einer Änderung, ohne Beleg wohlgemerkt. Und daraus machst Du dann "absichtliches langsamer machen eines Features". Und zur Krönung des ganzen sollen WIR dann auch noch einen Gegenbeweis für Dein gesamtes Konstrukt liefern. Herrlich, aber nein, Du bist weiterhin in der Beweislast. Die wird nicht umgedreht, Deine These ist immer noch nichts weiter als eine Behauptung ohne jeglichen Beleg.
 
Wahrscheinlich der proprietäre Ansatz, dass Gsync nur mit Nvidia-Karten funktioniert.
Das stimmt so pauschal aber auch nicht mehr. Ich habe einen aktuellen Gsync Ultimate Monitor, den PG32UQX, und der unterstützt neben Gsync auch ganz normales Adaptive Sync was dann so auch von AMD Karten genutzt werden kann. Das fehlende HDMI 2.1 bleibt aber natürlich neben dem Lüfter eine Schwäche.
 
In meinem Fall hat mein Monitor nur G-Sync, aber auch kein Lüfter mit verbaut.
Der kommt aber noch aus einer Zeit, wo es kein G-Sync kompatibel gab.
(Dell AW3418DW)
 
Aha, also unterstellst Du Absicht beim unterlassen einer Änderung, ohne Beleg wohlgemerkt. Und daraus machst Du dann "absichtliches langsamer machen eines Features". Und zur Krönung des ganzen sollen WIR dann auch noch einen Gegenbeweis für Dein gesamtes Konstrukt liefern. Herrlich, aber nein, Du bist weiterhin in der Beweislast. Die wird nicht umgedreht, Deine These ist immer noch nichts weiter als eine Behauptung ohne jeglichen Beleg.
Äh es wurde doch behauptet das Nvidia den Code 1 zu 1 übernommen hat und nichts geändert hat..
Da will ich schon ein Quelle haben
 
Äh es wurde doch behauptet das Nvidia den Code 1 zu 1 übernommen hat und nichts geändert hat..
Da will ich schon ein Quelle haben
Du hast zuerst behauptet dass Nvidia aktiv PhysX verlangsamt hat, also liefere dazu einen Beleg oder hör auf mit dem Versuch einer Beweislastumkehr und gib zu dass das nur Deine Meinung ist, kein Fakt.
 
Schau dir bitte das Video zum WCCFtech Artikel an.
Die 4090 kam ohne DLSS bei 1440p auf über 50 fps. mit DLSS3 frame generation auf 170 fps mit 55ms Input lag.
Das würde ich nicht unbedingt als Beibehaltung des Lags bezeichnen...
Input Lag ergibt sich nur zu einem Teil aus der Dauer der Berechnung pro Frame, er ist immer länger, z.T. um ein Vielfaches, als die Frametime.
 
Input Lag ergibt sich nur zu einem Teil aus der Dauer der Berechnung pro Frame, er ist immer länger, z.T. um ein Vielfaches, als die Frametime.
Da kommt es halt sehr auf das Spiel an.
In den betrachteten Spielen kann man den Input lag sehr deutlich drücken und auf das 2-3 fache der Frametime reduzieren.
Wie HWUB gezeigt hat, geht es nicht mit jedem Spiel.
Allerdings finde ich noch immer die Änderung der frametimes im Nvidia Demo eher... erschreckend mau.
Vierfache FPS bei 5ms besserem input lag....
Und das halt bei deutlich geringerer Basisauflösung dank DLSS.
Was helfen mir mehr FPS, wenn das Spiel in keiner Weise reaktiver wird?
 
Da kommt es halt sehr auf das Spiel an.
In den betrachteten Spielen kann man den Input lag sehr deutlich drücken und auf das 2-3 fache der Frametime reduzieren.
Wie HWUB gezeigt hat, geht es nicht mit jedem Spiel.
Allerdings finde ich noch immer die Änderung der frametimes im Nvidia Demo eher... erschreckend mau.
Vierfache FPS bei 5ms besserem input lag....
Und das halt bei deutlich geringerer Basisauflösung dank DLSS.
Was helfen mir mehr FPS, wenn das Spiel in keiner Weise reaktiver wird?
Naja, zumindest optisch ist es angenehmer. Ich denke aber auch, dass der Nutzen nur begrenzt ist. ich könnte mir z.B. vorstellen, dass sich Anno 1800 schon besser spielen lässt. Grade auf großen Bildschirmen ist ruckeliges Scrollen nicht angenehm. Dafür wären syntetisch eingefügte Bilder gut. Aber ein CoD oder CS von 60 Fps künstlich aufzublasen bringt eben nicht den benötigten Effekt in Form besserer Reaktionszeit auf Eingaben.
 
Du hast zuerst behauptet dass Nvidia aktiv PhysX verlangsamt hat, also liefere dazu einen Beleg oder hör auf mit dem Versuch einer Beweislastumkehr und gib zu dass das nur Deine Meinung ist, kein Fakt.
Das ist keine Beweislastumkehr, wenn als Argument kommt, nein Nvidia hat es nicht verlangsamt, sondern den Code 1 zu 1 übernommen und nie was geändert, dann will ich auch dafür eine Quelle haben...
Und ich bleib dabei, wenn man im Compiler nicht einen schalter setzt, das definitiv im Gegensatz zu allen leitfaden seitens Intel und auch AMD, ist es aktiv verlangsamen, da ist Absicht dahinter
 
Das ist keine Beweislastumkehr, wenn als Argument kommt, nein Nvidia hat es nicht verlangsamt, sondern den Code 1 zu 1 übernommen und nie was geändert, dann will ich auch dafür eine Quelle haben...
Und ich bleib dabei, wenn man im Compiler nicht einen schalter setzt, das definitiv im Gegensatz zu allen leitfaden seitens Intel und auch AMD, ist es aktiv verlangsamen, da ist Absicht dahinter

Also kannst Du Deine ursprüngliche Aussage nicht belegen. Somit erübrigt sich eine weitere Diskussion. Ich bin raus aus dem Thema.
 
Zurück