owned139
BIOS-Overclocker(in)
Wieso postest du dann einen "Beweis-Screenshot", auf dem klar zu erkennen ist, dass deine Aussage falsch ist?Zur damaligen Zeit war Vega 64 schneller als GTX 1080
Sie sind gleich schnell
Wieso postest du dann einen "Beweis-Screenshot", auf dem klar zu erkennen ist, dass deine Aussage falsch ist?Zur damaligen Zeit war Vega 64 schneller als GTX 1080
Laut TPU Review sind es - je nach Auflösung - zwischen 10 und 22% plus bei der 4090.AMD hat die letzten Jahre immer nur verzweifelt versucht ihren rückstand aufzuholen.. wärend Nvidia nebenbei noch so Spielereien wie Deep Learning und raytracing in ihre Architektur gegossen haben.
AMD müsste mit ihrer nächsten Generation also erstmal 40% mehr Leistung generieren um überhaupt die größte theoretische RTX4000 zu schlagen.
Wart mal denn Sprung ab. Ich denke das es eher auf noch mehr Features im ki bereich hinauslaufen wird. Was ja die Zukunft ist. AMD bringt nur mehr Mittelklasse Chips und NVIDIA hat keinen Druck. Außer bei Apple geht’s so weiter dann ist es auch nur eine Frage der Zeit bis die einsteigennice, dann muss ich kurz vorher meine 4090 für 1500eu verkaufen.
RTX 5090 wird meins.
Auf die ICH eingegangen bin.Es ging/geht ihm (dem Vorposter) um die LEISTUNG !
Ist ja ok, dennoch darf man das erwähnen, weil es nicht unerheblich war.Verbrauch Außen vor. Hab ich ja erwähnt, dass Vega zu durstig war/ist.
Ach ist das so. Wie sieht das aus, wenn jemand RT always on nutzt. Wie ist das bei den AAA Titeln das Fps/Watt Verhältnis und wenn es dazu noch ohne Abverkauf verglichen wird, kann man auch über das P/L Verhältnis diskutieren.Beim Verbrauch hat Navi 21 (6000´er) ggü. Ampere undiskutabel das bessere FPS/Watt/€ Verhältnis.
WEiß nicht was du meinst.Und beim Bench (Anhang) mit 20 Games in 4 verschiedenen Auflösungen (100 vs. 101 % / VII vs. 1080Ti) da von "nur bei
Der Schluss ist höchst lächerlich.Cherrypicking" zu reden ist auch irgendwie
Da sagt aber PCGH und Computerbase was anderes..Laut TPU Review sind es - je nach Auflösung - zwischen 10 und 22% plus bei der 4090.
Und wen interessiert das 3-4 Jahre nach Pascal?Wieso postest du dann einen "Beweis-Screenshot", auf dem klar zu erkennen ist, dass deine Aussage falsch ist?
Sie sind gleich schnell
Du zerlegst deine Diskussion selbst mit deinen eigenen Screenshot.Es ging/geht ihm (dem Vorposter) um die LEISTUNG !
Verbrauch Außen vor. Hab ich ja erwähnt, dass Vega zu durstig war/ist.
Warum nicht up to date bleiben und jede Gen mitnehmen, mit dem Erlöß der alten GPU ist das am günstigsten. Zumindest die ersten 4 Jahre.Wohl eher 5 Jahre
Also laut TPU sind es in 1080p schon 25% (was übrigens der Worstcase für die 4090 ist).Laut TPU Review sind es - je nach Auflösung - zwischen 10 und 22% plus bei der 4090.
Er hätte natürlich auch den letzten Index nehmen können in dem die Karten alle vertreten waren, aber das wäre ja nicht fair genugAlso selbst der Fine Wine zog nicht bei Vega.
Siehe obenSchwachsinn !
Es wurde von "Leistung" gesprochen/geschrieben, nicht vom Verbrauch (da war Ampere eher ein Totalausfall).
Zur damaligen Zeit war Vega 64 schneller als GTX 1080, Vega 56 schneller als GTX 1070 und VII in etwa gleich schnell als die GTX 1080Ti, RX 580/90 schneller als GTX 1060 und günstiger waren die Roten auch noch (FPS/€) !
Durstig und zu spät, ja das waren sie ...
Da muss man aber zu oben schon sagen, RTX30 hat ordentlich strom gezogen. Und RX6000 wahr auch kein unschulds lam das hat auch strom gezogen. In so fern, ist hier nur die frage Welche Grafikarte ist schlechter in sinne von Strom ziehen und welche besser. Über RT rede ich net weil mich das 0 tangiert.was eine GPU nach Release der Nachfolger Gen noch im Ranking leistet. Vor allem nicht, wenn beim Konkurrent schon bald zwei neue GPU Generationen das Licht erblickten.
Super so wie ich gedacht hatte
Freu mich schon auch bei der RTX 5090 direkt zum Release zu zugreifen, danach hat man eben erstmal 2 -2,5 Jahre Ruhe bei GPU-Kauf.
Das Unheil fing für mich eigentlich bei der GTX600 meine ich an. AB da war Nvidia in der Lage, nicht mehr den Vollausbau für die 80iger Karten nutzen zu müssen.Da muss man aber zu oben schon sagen, RTX30 hat ordentlich strom gezogen. Und RX6000 wahr auch kein unschulds lam das hat auch strom gezogen. In so fern, ist hier nur die frage Welche Grafikarte ist schlechter in sinne von Strom ziehen und welche besser. Über RT rede ich net weil mich das 0 tangiert.
Aber faktisch bleibt die RTX 30ziger karten bleiben in gespräch weil es wenig alternativen gibt bei RTX40zig und das wird bei den kastrierten Grafikarten in mittelklasse auch so bleiben daher ist dann die frage wie sich das bei AMD aus wirkt.
Sonderlich gut nicht weil die fahren die gleiche schine. Da ist es aber weniger schlimm weil der Video speicher ne taken mehr rettet. Aber grundsätzlich sind die Generation die RX6000/7000 ab einen gewissen punkt gut darunter ist es nahe zu ne überteuerte office karte.
RTX30/40 das gleiche spiel.
Und die nächsten generation sehen auch nicht rosiger aus daher werden wir jetzt mit den Potfolie leben müßen mehr wird es warscheinlichkeit nicht geben eher weniger. Heist ergo, duch die Ki oder A(e)i mist wird die Gamerschaft weniger Grafikarten haben die viel speicher hat. Ich sag nur GTX10ner reihe wahr ne gute Generation. Danach fing aus meiner sicht das unheil an.
Der Gedanke ist ja nachvollziehbar, um Ruhe zu haben."Danach hat man 2 Jahre Ruhe bei GPU-Kauf."
Lol. Du hast eine 4090 drin und kaufst dann eine 5090? Wo ist da von "Ruhe" die Rede? o_O
Du steigst dann von der bis dato schnellsten erhältlichen Consumer-GPU auf die dann schnellste erhältliche Consumer-GPU bei Release, weil es bis dann schlicht gar nichts anderes gibt, was auch nur 0,1% mehr Leistung hätte als die 4090 jetzt in deinem System.
First world problems ultra deluxe.
RT Tangiert mich 0 weil ich ehe weniger zocke. von daher.Für mich persönlich gilt, das ich nicht mehr ohne RT zocken will. Aus dieser Perspektive wird interessant sein, wie viele Spiele bei AMD zu lahm laufen (RT), oder bei Nvidia wegen Speicherknappheit schlecht laufen.
Letztendlich wird man mit beiden Varianten Abstriche machen müssen. Außer vielleicht man hat eine 4090. Alle anderen werden mit mehr Abstrichen leben müssen.
ZU RX oder RTX. Es wird die nächste Zeit zeigen ( nächsten 12-24 Monate) was wichtiger ist.
Hohe RT Leistung, oder mehr VRam.
Da würden dir so manche Generation an Nvidia GPUs widersprechen.Die 100er GPUs waren noch nie für Gamer gedacht.
Er hat einen Index hergenommen mit 12 von 28 GPU´s, da es ihm um einen Vergleich ging um 1060 vs. 580/90, V56 vs. 1070, V64 vs. 1080 und VII vs. 1080Ti.Er hätte natürlich auch den letzten Index nehmen können in dem die Karten alle vertreten waren, aber das wäre ja nicht fair genug
Dein signifikanter Fehler : Es gibt keine 7800X (GPU/CPU) und die 7800XT hat 28,1 Mrd. Transistoren.Hier begehst du leider einen signifikanten Denkfehler. Die 7800X nutzt und hat insgesamt 36,3 Mrd. Transistoren.