Oder anschalten und mehr FPS haben (oder weniger Strom verbrauchen), weil sieht man ja eh nicht...
Wenn man die ganzen Teils erklatanten Bildfehler nicht siehst, oder es dich nicht juckt, ja, dann kannst du natürlich auch damit spielen.
Aber es ist und bleibt ein Paradoxon:
"Ich will bessere Spielegrafik!" - ok, aktiviere willkürlich generierte Bildfehler!
Gruß vom blauen Schnösel aus Avatar mit seinen Fledermausarmen. ;-P
Wie ich eben sagte: wenn die alte Gurke daheim zu schwach fürs Spiel ist, und es ist die letzte Hoffnung, weil bereits die Details reduziert werden mussten, dann ist das eine valide Optionen , um spielen zu können und einen Neukauf noch weiter hinauszuzögern.
"Luxus"gamer sollten jedoch mal ihr Verhalten generell überdenken, ob man für einen Bildschirm mit hoher Auflösung mit Raytracing diese Dinge braucht oder wirklich will.
Beispiel: Diablo 4 macht bis zu -90% mit Raytracing? (hab die Meldung nicht ganz gelesen)
Dann lässt man den Mist doch einfach mal aus und hat trotzdem Spaß, vielleicht sogar mehr, weil man nicht fummeln muss und problemlos flüssiges Gameplay hat.
Meine Meinung.
PS: noch was zum Thema Intel: die haben die Skalierung im neuesten Treiber grobpixeliger gemacht.
Also Vorsicht, wenn man Benchmarks miteinander vergleicht. Die höheren Bildraten kommen zum großen Teil jetzt dadurch zustande, nicht durch höherer Leistung der Hardware, die ist ja noch immer gleich lahm.
Wenn also nun mit Faktor 2,3 statt 2 gerendert wird, dann sind das bald schon irgendwo zwischen 10-15% Differenz.