NVIDIA Ada Lovelace Laberthread / RTX 40-Serie

Was ich aus dem video entnehme ist das nvidia den aib vorschreibt ab rtx50 bei allen chips die sie herausgeben auf der Platine der 12vhpwr sein muss egal welche tbp der chip hat
Das geht gut mit nen gb207 und gb206 da hier der Sicherheitsabstand groß genug bleibt sofern der Stecker sitzt
Werden aber 300w oder sogar 400w gezogen wird es kritisch dann muss man drauf achten das der kontakt immer gegeben ist ansonsten wärmt es sih auf bis es schmilzt
Der Fehler ist nur marginal und kann repariert werden ist aber unschön zumal der Nutzer gezwungen ist die Platine den Stecker neu anzulöten.
Da werden sich viele repair shops kümmern müssen.
mein Fazit daraus ist das ich nur die FE kaufen kann ab der rtx50 Serie (rtx5060) ich hatte die Hoffnung das nvidia das nur bei sku mit mehr als 200w verbauen würde wie bisher.

ich weis das amd ab rdna5 nvidia überholen wird das Steht sicher. Daher macht es Sinn auf die norm zu bestehen für nvidia im Notfall mit blackwell in n3e node eine titan mit dann 3,3gfhz zu bringen die dann 600w zieht
Das wäre wieder die erste nvidia sku mit 1,1v bei 190sm grob 110tf (nvidia tf 160)
Im low end macht das natürlich kein Sinn und würde wenn nur für nvidia FE Modelle Sinn machen die aib haben ihre ref design in der Bom ob da es Sinn macht den aib vorzuschreiben den 12vhpwr zu nutzen ist fraglich bei nur 100w und maximal 200w gb207 und gb206 sku.

nebenbei nvidia nächste gen wird effizienter werden da man von n5 auf n3e wechselt Energieersparnis um die 22% bei 15% mehr perf.
Dazu halbes Si und nahezu ein drittel mehr vram Takt. resultiert in kleine chips
Es mag zwar Wunschdenken klingen aber amd rdna4 ist beeindruckend und rdna5 wird nvidia stark treffen.
ich rechne mit 3,7-3,9ghz bei rdna4 und 4,5ghz bei rdna5 mit dann 120cu und 180cu im high end 2026 amd nutzt den n3p node der nochmal mehr perf bietet etwa 20%
Der Nachteil dessen der Strombedarf ist etwas höher als nvidia in n3e
mein verdacht ist das nvidia rubin (n2x node neues design) schon q2 2027 bringt da sie es müssen

blackwell hat 6 render engines per software auf 12gpc zu 16sm per gpc das Sm ist identisch zu Ampere und ada cache wird gleich groß bleiben der unterschied ist
energieeffizienter und mehr Takt.
rubin wird ein kompletter Umbau der sm da geistern drei designs rum
Einmal doppelte Ausführung 256alu = 128fp32 +128 fp int hybrid die in 64 fp32 dediziert und 64 int dediziert sind und einmal 64+64 aber mit dual issue das erfordert eine Kompletten Treiberumbau und einmal 128+64 hybrid womit man den zwischen weg gehen wird.
Das letzte ist sehr wahrscheinlich da nvidia keine andere Wahl hat mit n2 node steigt der Takt um 25% was überhaupt möglich macht mehr alu in der nähe der ada gen zu Takten was um die 2,8-3,2ghz sein wird. Bisher ist ada doppelt (hopper) bei nur1,8ghz auf n5 möglich
Das letzte design wäre mit dann nur noch 430mm² maximaler chipgröße 192sm möglich die dann 36864 alu hat mit dann 3,0ghz =175tf erreicht (nvidia Angabe 221tf) bei 450w
Meine Prognosen beziehen sich auf die Fertigung was machbar ist mit den Designs daher eher pessimistisch.

Schon vor ada release sagte ich das ada so gute sku haben könnte aber man einfach keine designen wird weil man es nicht muss. Siehe derzeitiges line up wovon nur die rtx4070 so meh gut klingt der Rest ist absolut falsch designt.
Dazu das Desaster bei den 12vhpwr Steckern.
 
Was ich aus dem video entnehme ist das nvidia den aib vorschreibt ab rtx50 bei allen chips die sie herausgeben auf der Platine der 12vhpwr sein muss egal welche tbp der chip hat
Das geht gut mit nen gb207 und gb206 da hier der Sicherheitsabstand groß genug bleibt sofern der Stecker sitzt
Werden aber 300w oder sogar 400w gezogen wird es kritisch dann muss man drauf achten das der kontakt immer gegeben ist ansonsten wärmt es sih auf bis es schmilzt
Der Fehler ist nur marginal und kann repariert werden ist aber unschön zumal der Nutzer gezwungen ist die Platine den Stecker neu anzulöten.
Da werden sich viele repair shops kümmern müssen.
mein Fazit daraus ist das ich nur die FE kaufen kann ab der rtx50 Serie (rtx5060) ich hatte die Hoffnung das nvidia das nur bei sku mit mehr als 200w verbauen würde wie bisher.

ich weis das amd ab rdna5 nvidia überholen wird das Steht sicher. Daher macht es Sinn auf die norm zu bestehen für nvidia im Notfall mit blackwell in n3e node eine titan mit dann 3,3gfhz zu bringen die dann 600w zieht
Das wäre wieder die erste nvidia sku mit 1,1v bei 190sm grob 110tf (nvidia tf 160)
Im low end macht das natürlich kein Sinn und würde wenn nur für nvidia FE Modelle Sinn machen die aib haben ihre ref design in der Bom ob da es Sinn macht den aib vorzuschreiben den 12vhpwr zu nutzen ist fraglich bei nur 100w und maximal 200w gb207 und gb206 sku.

nebenbei nvidia nächste gen wird effizienter werden da man von n5 auf n3e wechselt Energieersparnis um die 22% bei 15% mehr perf.
Dazu halbes Si und nahezu ein drittel mehr vram Takt. resultiert in kleine chips
Es mag zwar Wunschdenken klingen aber amd rdna4 ist beeindruckend und rdna5 wird nvidia stark treffen.
ich rechne mit 3,7-3,9ghz bei rdna4 und 4,5ghz bei rdna5 mit dann 120cu und 180cu im high end 2026 amd nutzt den n3p node der nochmal mehr perf bietet etwa 20%
Der Nachteil dessen der Strombedarf ist etwas höher als nvidia in n3e
mein verdacht ist das nvidia rubin (n2x node neues design) schon q2 2027 bringt da sie es müssen

blackwell hat 6 render engines per software auf 12gpc zu 16sm per gpc das Sm ist identisch zu Ampere und ada cache wird gleich groß bleiben der unterschied ist
energieeffizienter und mehr Takt.
rubin wird ein kompletter Umbau der sm da geistern drei designs rum
Einmal doppelte Ausführung 256alu = 128fp32 +128 fp int hybrid die in 64 fp32 dediziert und 64 int dediziert sind und einmal 64+64 aber mit dual issue das erfordert eine Kompletten Treiberumbau und einmal 128+64 hybrid womit man den zwischen weg gehen wird.
Das letzte ist sehr wahrscheinlich da nvidia keine andere Wahl hat mit n2 node steigt der Takt um 25% was überhaupt möglich macht mehr alu in der nähe der ada gen zu Takten was um die 2,8-3,2ghz sein wird. Bisher ist ada doppelt (hopper) bei nur1,8ghz auf n5 möglich
Das letzte design wäre mit dann nur noch 430mm² maximaler chipgröße 192sm möglich die dann 36864 alu hat mit dann 3,0ghz =175tf erreicht (nvidia Angabe 221tf) bei 450w
Meine Prognosen beziehen sich auf die Fertigung was machbar ist mit den Designs daher eher pessimistisch.

Schon vor ada release sagte ich das ada so gute sku haben könnte aber man einfach keine designen wird weil man es nicht muss. Siehe derzeitiges line up wovon nur die rtx4070 so meh gut klingt der Rest ist absolut falsch designt.
Dazu das Desaster bei den 12vhpwr Steckern.
Ich hoffe nicht das der neue Stecker die Norm wird. Kein Bock auf Überlastung auf einzelnen Pins, Onboardsound mit Tinitus und Fehlern auf den USB Anschlüssen. Das die bei den Super Karten nicht wieder zurückgerudert sind und den 8Pol verbaut haben verstehe ich nicht. Ich hoffe das die anderen beiden GPU-Hersteller nicht auf diesen Zug aufspringen.
Mich wundert immer noch das NV die weiter verbaut und nicht zurückgerufen hat.
Der Stecker ist auch ein Risiko wenn er richtig eingesteckt wurde.
 
Zuletzt bearbeitet:
4070 Ti Super und Overclocking, eher enttäuschend. Eine Wasserkühlung hat durchaus einen Effekt, verglichen mit den Benchmarkergebnissen mit Luftkühlung zu Release. Aber weitere Takerhöhungen über eine geringe Werksübertaktung hinaus bleiben selbst bei vergleichsweise guter GPU im einstelligen Prozentbereich. Der resultierende Gewinn an Grafikleistung bleibt entsprechend gering, den Speicher zu übertakten kann man sich wohl komplett sparen.
Das Powerlimit hat selbst bei fordernden Benchmarks wenig Einfluss, die Spannung kann nur um 15mV auf maximal 1100mV angehoben werden.

Ich habe eine Ventus 3X, alle 4070 Ti Super Modelle von MSI nutzen dasselbe PCB. Die Gaming X Slim hat noch einen Anschluss für den RGB-Firlefanz aufgelötet, deswegen passt dort z.B. der Wasserkühler von Alphacool nicht.
Es ist also tatsächlich jedes der von MSI angebotenen Firmware Updates geeignet. Laut MSI bleibt die Garantie erhalten, egal welches Firmware Update genutzt wird. Der Kunde hat somit die freie Auswahl.

Vom Overclocking wird jenseits von Benchmarks kaum etwas bemerkbar bleiben. Der Unterschied des Graphics Score im 3DMark Time Spy ausgehend von 285W, mit leicht erhöhter Taktrate der GPU bezüglich der Referenz, zu 305W bei maximaler Übertaktung von GPU und GDDR6X beträgt magere 7,8%.

Ventus 3X OC Firmware:
Gaming X Slim Firmware:

Gaming X Slim + maximales Overclocking bei 305W:

Schlecht sind die Ergebisse dabei nicht, beim Time Spy Graphics Score langt es weltweit für Platz 5, bei Time Spy Extreme sogar für Platz 2.
Aber der Gewinn für den Alltag geht gegen Null. Für ein absolut stabiles Overclocking müssten die Taktraten wohl auch etwas reduziert werden, den Test spare ich mir aber. Etwa 5% mehr FPS hin oder her sind jetzt auch nicht sonderlich bemerkbar. Bei 60 FPS wären das 3 FPS mehr, ich könnte da keinen Unterschied feststellen.
 
4070 Ti Super und Overclocking, eher enttäuschend. Eine Wasserkühlung hat durchaus einen Effekt, verglichen mit den Benchmarkergebnissen mit Luftkühlung zu Release. Aber weitere Takerhöhungen über eine geringe Werksübertaktung hinaus bleiben selbst bei vergleichsweise guter GPU im einstelligen Prozentbereich. Der resultierende Gewinn an Grafikleistung bleibt entsprechend gering, den Speicher zu übertakten kann man sich wohl komplett sparen.
Das Powerlimit hat selbst bei fordernden Benchmarks wenig Einfluss, die Spannung kann nur um 15mV auf maximal 1100mV angehoben werden.
Hast du mal die effektive Taktrate beobachtet? Vielleicht nimmt die nicht im gleichen Maße zu, wie der eingestellte Takt.
Um ans Powerlimit zu kommen, musst du schon sehr Anspruchvolles, wie Metro Exodus EE in UHD, laufen lassen. Mit erhöhter max. Spannung sollten 285W begrenzen.
 
Schau dir die durchschnittliche Taktrate der beiden Time Spy Durchläufe an.

285W ohne OC:
Core-Takt:
2.850 MHz (2.340 MHz)
Durchschnittliche Taktfrequenz:
2.824 MHz

305W + Max OC:
Core-Takt:
3.135 MHz (2.340 MHz)
Durchschnittliche Taktfrequenz:
3.104 MHz

Das Delta ist 26MHz, mit 31MHz bei OC nicht so weit entfernt.
Wenn wir nun noch den Calculator befragen sind wir bei etwa 10% mehr Taktrate im zweiten Lauf. Den Speicher ignoriere ich mal nicht, wobei das im Vergleich zur 4070 Ti kaum Unterschied macht, und das bei 33% mehr Bandbreite. 1494Mhz zu 1313MHz also, das sind immerhin 13,7%.
Das Powerlimit brauchen wir gar nicht befragen, weil sich das ja auf das Taktlimit auswirkt, die Rechenleistung pro Takt bleibt unangetastet.

D.h. für mich, es skaliert nicht. Mutmaßen würde ich auch, und zwar fällt mir da der Cache von 48MB ein. Möglicherweise durch die Architektur bedingt, es dann doch mehr L3 sein müsste, für die Shaderanzahl bei diesem Takt. Könnte auch einfach mit dem hohen Takt zusammenhängen, und das ist bei allen anderen 40er GPUs dasselbe.

Wenn ich meinen Use-Case anseh, derzeit ist das ab und an mal in Jedi Survivor reinsehen, dann bleibt die Taktrate festgenagelt und das Powerlimit wird nicht erreicht. Ein paar Prozent mehr FPS, den Unterschied kann ich ohne Hilfsmittel nicht feststellen. Ich werde in Zukunft sicher noch ein Auge darauf haben, aber erstmal kann mir das alles egal bleiben.
 
Höre ich zum ersten Mal. Kann die GPU dann ihre ganz eigenen Taktraten fahren, unabhängig irgendwelcher Taktdomänen? ..das werde ich mir mal ansehen, aber wird dauern.
 
Halte ich total für unnötig, denn in der Regel erhält man mit max OC in Spielen rund +5% mehr FPS ggü stock (bei paar Ausnahmen bzw Benchmarktests ala 3D Mark und Co auch mal ~10%).
Habs zB eben bei Banishers mal getestet in 5150x2160 DLSS Q (GPU immer max ausgelastet)

Stock (2760MHz) 411.4W und 155 FPS

OC mit 1100mV (3105MHz mit +1500 VRAM) 490.3W und 163 FPS


Nun dazu die UV Alternativen, denn mit 950mV kann man schon locker die stock Performance erreichen

950mV (2790MHz +1500 VRAM) 345.2W und 156 FPS

765mV hardcore UV (ich weiß die werden beim OSD nicht angezeigt, dennoch hat die Curve bei 765mV den max Takt)
--> OSD zeigt 885mV an 2460MHz +1500 VRAM, 284.9W und 149 FPS

Normal habe ich ja bei meiner Standardauflösung vom Monitor (3440x1440) nicht solch hohen Verbräuche, aber da schon immer mehr nun auf 4k umsteigen, hab ich mal per DSR die Auflösung hochgeschraubt.
OC lohnt sich mMn einfach nicht bei den Karten. Ich mein wenn man unbedingt stock Performance wenigstens haben will, kann man dies idR mit 950mV erreichen und wie man bei meinem Beispiel sieht hat man 1 FPS mehr jedoch verbraucht stock ggü 950mV, saftige 19.2% mehr und wenn man gewillt ist ca weitere 4-5% Performance zu opfern ggü stock, kann man wie man sieht richtig was einsparen. Es geht hier auch nicht um die Wattzahlen allein, denn dadurch bleibt alles schön kühl und man kann silent zocken, was auch nicht zu verachten ist.

Hardcore UV vs OC hier:

OC ist zwar 9.4% schneller, verbraucht jedoch mehr als 72% mehr. Das steht einfach in keinem Verhältnis, aber jeder wie er mag, meine Meinung ist halt, dass es sich einfach nicht lohnt.


In meiner Standardauflösung 3440x1440 mit 98 FPS cap hab ich mit dem UV Profil nur einen Verbrauch von 150-155W in dem Game.
 
Zuletzt bearbeitet:
gibt es eigtl ein BIOS bei dem man die 600w Grenze aushebeln kann?
bei Alan Wake 2 komm ich dauernd ins Limit.
Ja, es gibt XOC Biosse mit 1000W und ohne sonstige Limits oder das Bios der HOF mit 660W und aktiven Limits, was wohl im Alltag empfehlenswerter ist.

Höre ich zum ersten Mal. Kann die GPU dann ihre ganz eigenen Taktraten fahren, unabhängig irgendwelcher Taktdomänen? ..das werde ich mir mal ansehen, aber wird dauern.
Bei etwa 880mV, also niedriger Lastkannst du in MSI AB schon sehen, dass die Taktkurve schon nicht mehr "abgefahren" wird, sondern z.T. deutlich niedriger getaktet wird (samt niedrigerem Speichertakt). Zusätzlich weicht der tatsächliche Takt vom eingestellten ab:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Weißt du, ob es das auch für die 4080 gibt? Für die habe ich bisher 450-, 460- und 470-W-BIOSe gefunden, aber danach kommt direkt das 1.000-Watt-Teil. Nichts dazwischen, wie es scheint.
Ein 1000W BIOS ist an sich nicht schlimm. Wenn es komplett ohne sicherheitsmechanismen ist, dann sollte man sich die Nutzung gut überlegen.
Zu der 4080 habe ich leider keine Infos parat, da ich nur für die 4090 recherchiert hatte. Ich weiß nur, dass ein "Cross Flash", also von einer Modellreihe auf die andere, nicht funktionieren soll.zwar funktioniert, aber die Karte hinterher nicht bootet.

Edit: Bemerke gerade, dass du den extrem Tuning Artikel zur RX7900XTX geschrieben hast. Fand ich sehr interessant, umfangreich und mal was anderes als der Einheitsbrei der üblichen "UV" Artikel. :daumen:

Edit2:
Meins wissen nicht für die Founders.
Vlt kannst ja mal bei Overclockers.net vorbeischauen.
Man kann seit August letzten Jahres jedes BIOS auf jede Karte innerhalb einer Reihe flashen. https://www.techpowerup.com/312631/...rossflash-enabled-by-groundbreaking-new-tools
 
Zuletzt bearbeitet:
Zu der 4080 habe ich leider keine Infos parat, da ich nur für die 4090 recherchiert hatte. Ich weiß nur, dass ein "Cross Flash", also von einer Modellreihe auf die andere, nicht funktionieren soll.zwar funktioniert, aber die Karte hinterher nicht bootet.
Danke für die Rückmeldung. Die von mir genannten Powerlimits sind laut TPU alle von 4080-BIOSen, selbst das 1.000-Watt-Galax. Ich plane also keinen Crossflash. Möchte nur eine breite Auswahl haben.

Bemerke gerade, dass du den extrem Tuning Artikel zur RX7900XTX geschrieben hast. Fand ich sehr interessant, umfangreich und mal was anderes als der Einheitsbrei der üblichen "UV" Artikel. :daumen:
Freut mich, danke für die Blumen. =) Wenn alles gutgeht, kommt so was demnächst wieder - für die 4080 Super. ;)
 
Zuletzt bearbeitet:
OMG! Es ist passiert. Die Hölle ist zugefroren!!!

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Edit: Ach, gibt ja sogar ne News bei PCGH XD
 
Zurück