Leistungsindex Prozessoren - Rangliste Kommentar-Thread

Mich würde jetzt z.B. brennend interessieren z.B. der I7 13700k der nimmt sich ja 250W auf 720p in manchen Settings, was nimmt sich dieser aber gerade derzeit in 4K im GPU Limit? Sind es dann auch noch immer 250W?

Ich persönlich habe auch nie eine CPU länger als 2 Jahre rüste das meistens mit der GPU mit. Daher gibt es nicht nur User die ihre Hardware 5 Jahre nutzen sondern auch User die öfters wechseln und hier wäre eine Empfehlung auch wünschenswert.
zu
1. Vermutlich weniger aus Erfahrung kann ich dir sagen so gute 100Watt bei Spielen die von der CPU auch was fordern Warzone oder Spiederman z.b.

2.Wird immer wieder in Special behandelt, aber wenn man sich GPU test und CPU test ansieht , kann man die jetzt passend CPU für seine GPU finden. Dafür braucht man dann nichtmal die CPU und diese GPU im gleichen System testen.

den Beispiel:
CPu test (oder spiel test)
CPu x schafft 120fps in 720 p
CPU z schafft 84 FPS

GPu y schafft 90 FPS.
Also weißt du:
Irgenwas zwischen CPU x und CPU z ist für dich die passenden CPU wenn du GPU y hast.
Und das ist einfach aus dem beiden Test rauszulesen.
 
Spiel Warzone, Arma oder Starcraft, Anno oder Cities:Skyline mal auf 4K und erzähl mir dann noch einmal, das die CPU bei 4K irrelevant ist.
So jetzt sagst mir aber bitte anhand des Tests von dieser Seite was ich in 4K bei Cities Skyline oder Anno 1800 was ich in FPS und dem i713700k erwarten kann. Bitte und Danke!
 
diese CPU ist 17% schneller in 720p
Nein, nicht die CPU ist 17% schneller als eine andere in 720p, sondern die CPU ist absolut gesehen 17% schneller (in einer 16:9 Auflösung).

Die getestete Auflösung ist doch irrelevant. Sie ist nur Mittel zum Zweck. Wichtig ist, dass ein CPU-Limit über alle getesteten CPUs hinweg vorliegt. Sonst sind Indizes doch auch wertlos, wenn das nicht der Fall sein sollte.
 
So jetzt sagst mir aber bitte anhand des Tests von dieser Seite was ich in 4K bei Cities Skyline oder Anno 1800 was ich jetzt mit FPS und dem i713700k erwarten kann. Bitte und Danke!
also anno z.b das hier:
1692794292706.png

(bei dem Patch stand)

Und on 4k hast du die selben FPS falls diese Unbekannt GPU von dir nicht bremst.

Und schau mal wenn du wissen möchtest welche FPS du hast und du hast z.b eine 3090.
Dann hier:

1692794477873.png


Wenn du jetzt verstehest was dir beide test sagen.
Dann weißt du wirst ....
63 FPs haben.
 
4090 oder RX 7900. Interessant wäre da jetzt 13700k ggü einem 7800x3D
Grundsätzlich ist der Ablauf immer gleich. Du schaust dir die Werte für die jeweilige GPU in der passenden Auflösung an und vergleichst das dann mit der gewünschten CPU. Wenn die Werte der CPU höher sind limitiert die GPU und andersherum die CPU. Klar gibt es Grenzsituationen in denen mal die CPU und mal die GPU limitiert und da wirst du dann keine exakten Werte herausfinden, aber dafür müsstest du jede GPU mit jeder CPU in jeder Auflösung durchtesten. Das wäre ein irrsinniger Aufwand für einen quasi nicht vorhandenen Erkenntnisgewinn.

Ganz davon abgesehen ist der Index auch weniger für absolute Werte gedacht sondern eher dazu da um die Verhältnisse der CPUs untereinander abzubilden. Für absolute Werte sollte man eher die passenden Artikel zu den Spielen lesen.

Auch würde mich z.B. die Wattanzahl interessieren.
Das ist tatsächlich interessant, aber auch wieder von zu vielen Parametern abhängig. Eine 4090 in WQHD würde ganz andere Werte ausspucken als eine 4060 in UHD. Du müsstest also wieder einen irrsinnigen Aufwand betreiben. Das kann man hin und wieder in Form eines Specials für einzelne CPUs/GPUs machen, aber im normalen Index ist das Blödsinn.
 
Cyberpunk ist extrem CPU lastig mit Raytracing, selbst in 4K war ich häufig im CPU Limit meinem Ryzen 5600X und FG, mit der 7800X3D nicht mehr, vor Allem die Frametimes sind nun viel sauberer.
Ok verstehe.
Also gerade RT tankt die CPU etwas mehr und es ist weniger die durchschnittliche Framerate als die Dibs in tiefere Regionen die reduziert wird.
 
Das habe ich doch nur geschrieben weil Dragyo meinte ich soll das mal Spielen, daher habe ich das jetzt auch rangezogen.
^^
Jep - und genau was @Bert2007 postete war der Kern meiner Aussage. Eine CPU ist nicht nur in 720p schneller oder langsamer, eine CPU ist entweder allgemein schneller oder langsamer - und wenn du unbedingt 4k möchtest, gibts auch Spiele, die dir das in 4K zeigen.
 
Grundsätzlich ist der Ablauf immer gleich. Du schaust dir die Werte für die jeweilige GPU in der passenden Auflösung an und vergleichst das dann mit der gewünschten CPU. Wenn die Werte der CPU höher sind limitiert die GPU und andersherum die CPU. Klar gibt es Grenzsituationen in denen mal die CPU und mal die GPU limitiert und da wirst du dann keine exakten Werte herausfinden, aber dafür müsstest du jede GPU mit jeder CPU in jeder Auflösung durchtesten. Das wäre ein irrsinniger Aufwand für einen quasi nicht vorhandenen Erkenntnisgewinn.


Das ist tatsächlich interessant, aber auch wieder von zu vielen Parametern abhängig. Eine 4090 in WQHD würde ganz andere Werte ausspucken als eine 4060 in UHD. Du müsstest also wieder einen irrsinnigen Aufwand betreiben. Das kann man hin und wieder in Form eines Specials für einzelne CPUs/GPUs machen, aber im normalen Index ist das Blödsinn.
Danke! Dein letzter Absatz ist nämlich das was mich einfach brennend interessiert. Ich weiß das es ein irrsinniger Aufwand ist oder wäre aber man könnte soetwas doch zumindest bei den Topdingern machen.

Wenn ich reißerisch lese das die 7800x3D die beste CPU 2023 ist würde ich gerne wissen warum! Daher brauche ich aber auch Vergleichswerte z.B. gegen einen i7!

Ja ich weiß GPU Limit daher ist 4K nicht möglich, weil dann die FPS ziemlich identisch sind. Aber genau das ist für mich wichtig weil mit einer 4090 kann ich derzeit nicht mehr aufrüsten, daher würde mich schon interessieren wie sieht es dann da im Limit mit dem Verbrauch der CPU aus? Kann ja sein, dass der AMD Prozessor nur 24Watt braucht und Intel nimmt sich 125W oder es kann auch sein, dass beide im gleichen Limit durch die GPU sind aber die Watt dann sagt in diesem Szenario würden beide. 55W brauchen.

Ich hoffe ich habe das halbwegs verständlich rüberbringen können ^^
 
Zuletzt bearbeitet von einem Moderator:
Ich weiß das es ein irrsinniger Aufwand ist oder wäre aber man könnte soetwas doch zumindest bei den Topdingern machen.
Du hast pro GPU 4 verschiedene Auflösungen mit ganz verschiedenen Verbrauchswerten. Selbst wenn du nur die 2 stärksten Karten von Nvidia und AMD nimmst, insgesamt also 4 Karten. Hast du pro CPU und Spiel 16 Werte. Den Wert darfst du dann noch mit der Anzahl der CPUs und Spiele multiplizieren. Und danach hast du immer noch nur Werte für genau diese GPUs. Mit allen anderen GPUs schaust du immer noch in die Röhre. Das ist wirtschaftlich nicht machbar.

Aber da würde mich schon interessieren wie sieht es dann da im Limit mit dem Verbrauch der CPU aus? Kann ja sein, dass der AMD Prozessor nur 24Watt braucht und Intel nimmt sich 125W oder es kann auch sein, dass beide im gleichen Limit durch die GPU sind aber die Watt dann sagt in diesem Szenario würden beide. 55W brauchen.
Du kannst du davon ausgehen dass sich das Verhältnis nicht nennenswert verschiebt. Wenn eine CPU im CPU Limit 3 mal so viel wie eine andere Verbraucht ändert sich das im GPU Limit nicht auf einmal so stark dass sie weniger verbraucht.

Man könnte das, wie gesagt, durchaus mal in einem Special behandeln, allerdings ist die Erkenntnis halt sehr begrenzt, weil es brutal viele Parameter gibt die man beachten muss und wenn statt deiner 4090 eine 4070 genommen wird, wiel Praxisnäher, würde dir der Test direkt mal gar nichts nützen und so geht es wiederum allen anderen die keine 4090 besitzen wenn eben diese genommen wird.

Du hast eine 4090 und einen 13700K und nutzt die scheinbar in UHD, willst jetzt also das bitte auch genau das Szenario behandelt haben, es gibt da draußen aber tausende User mit ganz anderen Szenarien die die ebenso behandelt haben wollen.

Du merkst, mal eben so geht das leider nicht. ;)

Edit: Eigentlich stimmen die Werte oben auch nur so halb, weil ein Wert aus mindestens 3 Durchläufen besteht.
 
Du hast pro GPU 4 verschiedene Auflösungen mit ganz verschiedenen Verbrauchswerten. Selbst wenn du nur die 2 stärksten Karten von Nvidia und AMD nimmst, insgesamt also 4 Karten. Hast du pro CPU und Spiel 16 Werte. Den Wert darfst du dann noch mit der Anzahl der CPUs und Spiele multiplizieren. Und danach hast du immer noch nur Werte für genau diese GPUs. Mit allen anderen GPUs schaust du immer noch in die Röhre. Das ist wirtschaftlich nicht machbar.


Du kannst du davon ausgehen dass sich das Verhältnis nicht nennenswert verschiebt. Wenn eine CPU im CPU Limit 3 mal so viel wie eine andere Verbraucht ändert sich das im GPU Limit nicht auf einmal so stark dass sie weniger verbraucht.

Man könnte das, wie gesagt, durchaus mal in einem Special behandeln, allerdings ist die Erkenntnis halt sehr begrenzt, weil es brutal viele Parameter gibt die man beachten muss und wenn statt deiner 4090 eine 4070 genommen wird, wiel Praxisnäher, würde dir der Test direkt mal gar nichts nützen und so geht es wiederum allen anderen die keine 4090 besitzen wenn eben diese genommen wird.

Du hast eine 4090 und einen 13700K und nutzt die scheinbar in UHD, willst jetzt also das bitte auch genau das Szenario behandelt haben, es gibt da draußen aber tausende User mit ganz anderen Szenarien die die ebenso behandelt haben wollen.

Du merkst, mal eben so geht das leider nicht. ;)

Das ist mir bewusst! Aber wenn man gar keinen Vergleich hat zu diesem außer in 720p und kein GPU Limit weiß ich aber auch nicht was ich zu erwarten habe im GPU Limit mit der CPU.

Ich weiß auch das es nie jemanden zufriedenstellen würde, weil eben jeder andere Konstellation hat. Aber bitte versteht, dass einer mit einem i7 13700k nicht hinnehmen möchte das seine CPU Immer 250Watt nimmt nur weil es der 720p Test zeigt! Auch wenn es im 4K so wäre, hätten wir keine Limitation bezüglich der GPU. Doch die Ist Situation ist, dass kein User was dafür kann, dass wir uns im GPU Limit befinden und trotzdem dann gerade zu aktuellen Zeiten echte Werte sehen wollen und nicht Spekulationen die derzeit technisch gar nicht möglich sind!
 
Das ist mir bewusst! Aber wenn man gar keinen Vergleich hat zu diesem außer in 720p und kein GPU Limit weiß ich aber auch nicht was ich zu erwarten habe im GPU Limit mit der CPU.

Ich weiß auch das es nie jemanden zufriedenstellen würde, weil eben jeder andere Konstellation hat. Aber bitte versteht, dass einer mit einem i7 13700k nicht hinnehmen möchte das seine CPU Immer 250Watt nimmt nur weil es der 720p Test zeigt! Auch wenn es im 4K so wäre, hätten wir keine Limitation bezüglich der GPU. Doch die Ist Situation ist, dass kein User was dafür kann, dass wir uns im GPU Limit befinden und trotzdem dann gerade zu aktuellen Zeiten echte Werte sehen wollen und nicht Spekulationen die derzeit technisch gar nicht möglich sind!
Es ist - wie am Beispiel der Spiele, die ich nannte gezeigt wurde - keine Spekulation. Dein 13700K wird die 250W in Anno oder Cities voll durchnuckeln. Auch in 4K.

Und wenn er nur 50% Last hat, dann kannst du eine (nicht 100% korrekte, aber ausreichende) Milchmädchenrechnung aufmachen. SInd dann halt "nur" 125W.
 
Das ist mir bewusst! Aber wenn man gar keinen Vergleich hat zu diesem außer in 720p und kein GPU Limit weiß ich aber auch nicht was ich zu erwarten habe im GPU Limit mit der CPU.

Ich weiß auch das es nie jemanden zufriedenstellen würde, weil eben jeder andere Konstellation hat. Aber bitte versteht, dass einer mit einem i7 13700k nicht hinnehmen möchte das seine CPU Immer 250Watt nimmt nur weil es der 720p Test zeigt! Auch wenn es im 4K so wäre, hätten wir keine Limitation bezüglich der GPU. Doch die Ist Situation ist, dass kein User was dafür kann, dass wir uns im GPU Limit befinden und trotzdem dann gerade zu aktuellen Zeiten echte Werte sehen wollen und nicht Spekulationen die derzeit technisch gar nicht möglich sind!
Also
1. Ersten sind diese sachen Technisch möglich es kommt immer auf das Spiel an.
2. Klar was dein CPU mit deiner GPU in deinem SPIEL x verbaucht ist, etwas was du so direkt nicht aus den test herauslesen kannst.

Aber mit ein wenig Hintergrund wissen weißt du folgendes:
1. ein 13700k ist langsamer als ein 7800x3d in Spielen
2. er verbaucht mehr Strom, dies wird er auch in 4k tuen (die konkreten Zahlen und das Verhältnis ändert sich aber nicht die Konkrete aussage.
3. Wenn wissen möchtest was eine CPU oder ein PC-Teil verbraucht in einem gewissen Szenario dann muss man genau dieses testen.

Doch als kauf entscheidung reicht (für spieler)
1. 7800x3d schneller als 13700k
2. 7800x3d Sparsamer als 13700k
3. Brauche ich die Leistung dieser CPU? (das muss jeder selber wissen).
 
Aber bitte versteht, dass einer mit einem i7 13700k nicht hinnehmen möchte das seine CPU Immer 250Watt nimmt nur weil es der 720p Test zeigt
Das steht so auch nirgendwo. Laut Index sind es im Durchschnitt 145W.

zu aktuellen Zeiten echte Werte sehen wollen
Auch wenn ich mich wiederhole, wieso legst du fest was "echte Werte" sind? Ich bin z.B. in UWQHD, also 21/9, mit der 4090 und dem 7950X3D regelmäßig im CPU Limit unterwegs. Die CPU hat bei mir also tendenziell sogar noch höhere Werte als in den CPU Tests weil 21/9 fordernder für die CPU ist als 16/9. Deine "echten Werte" würde mir also überhaupt nicht helfen. Mit den Werten im CPU Limit hast du zumindest einen ersten Indikator und wenn der 7800X3D im CPU Limit weniger verbraucht als der 13700K wird es im GPU Limit auch so sein. Die absoluten Werte sind zwar geringer, aber das Verhältnis bleibt.
 
@Marlboro0815
Sich an dem Verbrauch aufzuhängen ist doch Käse. Das ist das Gleiche, wie wenn jemand sagt, er spielt mit seiner 7900XTX oder seiner 3090Ti (beides Schluckspechte vor dem Herrn) und einem Core i7 920 (oder ähnlicher alter bzw. massiv unterdimensionierter CPU) in UHD und die GPU verbraucht bei ihm nur 150 Watt (statt 450 Watt) (weil die CPU einfach nur so viel Bilder pro Sekunde liefert, sodass die GPU vielleicht gerade einmal 25-30% ausgelastet ist...)
 
Das hätte man vielleicht anders formulieren können. Andererseits sehe ich nicht, dass es eine Meinung ist, wenn man CPU Tests ohne einen verzerrenden Faktor, als sinnlos hinstellt. So ein Test hat einen objektiv erklärbaren Wert in Kontext eines Produkt Tests. Ein Produkt Test ist nicht dazu da, jedem einzelnen bis ins kleinste Detail vorzukauen, wie relevant es für jeden einzelnen Nutzer ist. Das muss der Konsument abstrahieren können.
Was gibt es da zu abstrahieren wenn so weit weg von der Realität steht wie es nur möglich ist?
Den letzten Satz verstehe ich nicht. Im vorletzten Satz widerlegst du deinen zweiten Satz. Dadurch, dass es Ausnahmen gibt, die sehr CPU lastig sind (Arma 3 und ACC werfe ich hier noch mal mit ein) und dadurch, dass Grafikkarten (der Leser) eine sehr unterschiedliche Leistung haben, ergibt es wenig Sinn die Leistung der CPUs in einem Test für CPUs willkürlich zu beschränken.
Mal als Beispiel: Bei einem Test für Sportwagen auf einer Rennstrecke würde doch auch keiner daherkommen und verlangen die Höchstgeschwindigkeit auf 150Km/h aus irgendeinem Grund zu beschränken. Das würde einfach nur die Rundenzeiten (Messergebnisse) stark beeinflussen und die wahre Leistung der meisten Fahrzeuge nicht abbilden
Kann ich gerne nochmal ansetzen.
PS: Arma ist ein sehr extremes Beispiel von absoluter CPU Abhängigkeit wie ich sie in anderen Spielen noch nicht erlebt habe!
Weiss nicht was da Bohemia alles macht. Eine SIM halt.

Ich wiederspreche mir selbst nicht. Ich sagte, abgesehen von Ausnahmen in SIM und Strategie im expliziten, steht die GPU im Vordergrund.
Darum bin ich für die heutigen max settings GPU Tests Ansatz und eben deswegen gegen low res CPU tests.
In jedem Test sind alle Komponenten zwar dabei, eine Variable muss jedoch immer gleich bleiben zur Vergleichbarkeit.

So nebenbei. Diese darf hoch angesetzt werden muss aber nicht die immer gleich nonplusultra Speerhead sein. Nur wenige da drausen würde diese Ihr eigen nennen und wenn dann auch nicht für lange (Ablösung kommt all 4-6Monate). Abstrahieren kann man nach oben wie nach unten ;-)

Ein Auto zu limitieren wäre eher ein Frame-limiter.

Hier kommen wir wieder an Anfang. Man trifft eine Annahme zur Annäherung.
Ist eine Annahme, dass jeder eine 1500€Grafikkarte nutzt, ein Ryzen, Epic oder i9 des letzten Standes plausibel?

Hier muss niemand alles umkrempeln. Man hat es immer so gemacht also macht man es weiter so. Alles klar, muss ich nicht gut finden.

Absolute CPU Zahlen wollt Ihr wissen zum Längenvergleich. Ein Realworld-Scenario würde euch den Balken versauen. Zumindest heute, in dem einen Spiel, dessen Absolut Werte, welcher in 5 Jahren sowieso egal sind.

Ein Versuch euch zu verstehen;
Geht es darum, den Absolutwert irgendwann zu ereichen können, wenn dann nur der Rest der HW mal mit ziehen mag?
(Beispiel, in 5 Jahre)
 
Ein Versuch euch zu verstehen;
Geht es darum, den Absolutwert irgendwann zu ereichen können, wenn dann nur der Rest der HW mal mit ziehen mag?
(Beispiel, in 5 Jahre)

Nein es geht bei einem CPU Test darum, was die CPU AKTUELL zu leisten imstande ist, wenn kein Limit anliegt, das wird sie morgen, übermorgen und auch noch in 4 oder 5 Jahren leisten können, nur wird es dann wieder (vermutlich) bessere CPUs geben.

Ob man in der Zukunft dann aber aufrüsten muss oder ob einem die Leistung die aktuell gemessen wurde demjenigen dann immer noch ausreicht muss eben der vermeidliche Käufer entscheiden.
 
Zurück