Als NVIDIA im vergangenen Monat seine auf Ada Lovelace basierende GeForce RTX 4090 auf den Markt brachte, lieferte sie das, was wir uns für Entwickleraufgaben erhofft hatten: einen bemerkenswerten Sprung in der Raytracing-Leistung gegenüber der vorherigen Generation. Das ließ eine GPU wie die RTX 4090 dem Rest des Stapels weit voraus und gab einer GPU wie der RTX 4080 eine gute Chance, sich gut gegen die Top-End-RTX 3090 der letzten Generation zu behaupten.

Nun, nachdem wir die RTX 4080 getestet haben, geben wir zu, dass wir in einigen Fällen überrascht waren, da die 1.199-Dollar-Option von NVIDIA heute die 1.499-Dollar-RTX 3090 der letzten Generation locker übertrifft – und es sogar schafft, weniger Strom zu verbrauchen.

Bei einem Namen wie RTX 4080 könnte man leicht annehmen, dass es sich um ein Dual-Slot-Design wie jede andere X080-GPU handeln würde – während die X090-Karten der Spitzenklasse drei Slots haben. Nun, das wäre falsch anzunehmen, da die RTX 4080 ungefähr die gleiche Größe wie die RTX 3090 hat. Eine größere Größe bedeutet, dass kleinere Mid-Towers nicht ausreichen, um die Karte zu halten, aber wenn Sie sie unterbringen können, es wird angesichts seines großen Kühlers eine starke Leistung und einen anständig leisen Betrieb (und Temperaturen) liefern.

Sie erinnern sich vielleicht, dass die Ada Lovelace-Generation mit drei Modellen auf den Markt kam. Seit dieser Ankündigung hat NVIDIA die RTX 4080 12 GB auf den Markt gebracht und wird sie voraussichtlich später als anderes Modell neu auf den Markt bringen. Damit haben wir insgesamt zwei Modelle, die die aktuelle Ada Lovelace-Reihe zieren:

NVIDIAs GeForce Gaming & Creator GPU-Reihe Kerne Boost MHz Peak FP32 Speicherbandbreite TDP SRP RTX 4090 16.384 2.520 82,6 TFLOPS 24 GB 1 1008 GB/s 450 W $1,599 RTX 4080 9,728 2,510 48.8 TFLOPS 16GB 1 717 GB/s 320W $1,199 RTX 3090 Ti 10,752 1,860 40 TFLOPS 24GB 1 1008 GB/s 450W $1,999 RTX 3090 10,496 1,700 35.6 TFLOPS 24GB 1 936 GB/s 350W $1,499 RTX 3080 Ti 10,240 1,670 34.1 TFLOPS 12GB 1 912 GB/s 350W $1,199 RTX 3080 8,704 1,710 29.7 TFLOPS 10GB 1 760 GB/s 320W $699 RTX 3070 Ti 6,144 1,770 21.7 TFLOPS 8GB 1 608 GB/s 290W $599 RTX 3070 5,888 1,730 20.4 TFLOPS 8GB 2 448 GB/s 220W $499 RTX 3060 Ti 4,864 1,670 16.2 TFLOPS 8GB 2 448 GB/s 200W $399 RTX 3060 3,584 1,780 12.7 TFLOPS 12GB 2 360 GB/s 170W $329 RTX 3050 2,560 1,780 9.0 TFLOPS 8GB 2 224 GB/s 130W $249 Notes

Wie NVIDIA diese Generation bisher bepreist hat, ist diskussionswürdig, da viele davon ausgehen könnten dass das Unternehmen beschlossen hat, die Dinge so zu strukturieren, dass es jeden dazu ermutigt, sich für den Top-Chip zu entscheiden. Die RTX 4090 kostet 33 % mehr als die RTX 4080, enthält aber 50 % mehr Speicher, 41 % mehr Bandbreite und 68 % mehr Kerne.

NVIDIA hätte die RTX 4080 zweifellos für 999 $ auf den Markt bringen können AMDs kommende Radeon RX 7900 XTX ist ein ernsthafter Kampf zum gleichen Preis, da der Preisunterschied zwischen den beiden Top-GPUs in der aktuellen GeForce-Reihe einfach nicht dem entspricht, was wir in der Vergangenheit gesehen haben. Wenn die Top-Karte der nächsten Generation von AMD konkurrenzfähig ist, könnten die Preise für die RTX 4080 etwas schwanken.

Das alles gesagt, sprechen wir von einem allgemeinen Standpunkt aus, aber beim Rendern, auch wenn NVIDIA einen bemerkenswerten Befehl gibt Preisaufschlag stehen die Chancen gut, dass die Leistung pro Dollar immer noch zu Gunsten des grünen Teams ausfallen wird – etwas, das unsere vielen Rendering-Leistungsdiagramme hier hervorheben werden.

Wir überlassen weitere Diskussionen dem Abschluss. Fürs Erste ist hier der Testaufbau, den wir für alle unsere Benchmarks verwendet haben, gefolgt von den Testergebnissen (wir werden bald einen weiteren Artikel veröffentlichen, der sich mit Kodierung, Photogrammetrie, Mathematik und Darstellungsleistung befasst).

Unser Aussehen Bei der Rendering-Leistung für NVIDIAs GeForce RTX 4080 dreht es sich um sechs Softwarelösungen – oder sieben, wenn Sie Blender als zwei zählen, da sowohl Cycles als auch Eevee getestet werden. Leider verhinderte ein Fehler im Test-GPU-Treiber, dass Luxions KeyShot getestet werden konnte. Wenn also ein neuer Treiber herauskommt, werden wir diesen testen und hinzufügen.

Wie wir es mit dem 4090-Startartikel getan haben, Fangen wir mit V-Ray an:

Von Anfang an macht die RTX 4080 deutlich, dass sie beim Rendern stark ist. Einerseits fällt es nicht allzu weit hinter die RTX 4090 zurück, andererseits hebt es sich von einer Top-End-Option der Ampere-Generation ab. Wir haben keine RTX 3090 Ti, für die wir Ergebnisse einbeziehen könnten, aber ihr Vorsprung vor der RTX 3090 würde nicht ausreichen, um an diesem Gesamtbild viel zu ändern.

In unserem RTX 4090-Startartikel haben wir uns vorgenommen ein Blick auf das anspruchsvolle Projekt Winterwohnung über mehrere Generationen hinweg. Dies ist ein Projekt, das mehr als 16 GB VRAM benötigt, aber wir konnten trotzdem nicht anders, als zu sehen, wie sich eine GPU der aktuellen Ada Lovelace-Generation ohne genügend VRAM tatsächlich verhalten würde, wenn sie versuchen würde, das Projekt zu rendern. Welp:

Das scheint kein Ergebnis zu sein, aber für uns ist es interessant, weil das Projekt tatsächlich mit dem Rendern begonnen hat – es hätte einfach Ewigkeiten gedauert, es abzuschließen. Wir nehmen an, dass das am begrenzten Framebuffer liegt, und wenn ein paar Gigs mehr zur Verfügung gestanden hätten, wäre das gesamte Rendering effizienter gewesen und hätte ein Ergebnis geliefert, das sich gut einfügen würde.

Wir sagen das Projekt benötigt mehr als 16 GB Arbeitsspeicher, aber Tatsache ist, dass es sehr wohl mehr als 20 GB benötigen kann. Auf NVIDIA-Karten der vorherigen Generation und abgesehen von den 24-GB-SKUs hatte das Topmodell der letzten Generation 12 GB VRAM. 100 % der GPUs aus dieser Reihe – abgesehen von RTX 3090 – scheiterten sofort beim Winter Apartment-Rendering. Mit RTX 4080 hat es tatsächlich versucht, die Arbeit zu erledigen, aber sein maximaler Speicher hielt es zurück:


Einige Rendering-Projekte erfordern mehr als 16 GB VRAM

In der obigen Aufnahme können Sie Schauen Sie sich das GPU-Z-Fenster an, um die volle GPU-Auslastung sowie den maximalen VRAM zu sehen. Um eine klare Vorstellung davon zu geben, wie ineffizient dieses Projekt gerendert wurde: Die RTX 4090 brauchte 297 Sekunden, um es zu löschen, während unser Lauf implizierte, dass die RTX 4080 fast 10 Stunden dauern würde.

Die Lektion? Wenn Sie vorhaben, mit wirklich anspruchsvollen 3D-Projekten zu arbeiten, sollten Sie sicherstellen, dass Ihr Framebuffer Sie nicht zurückhält, denn natürlich reichen nicht einmal 16 GB Speicher in allen Fällen aus.

Eine unserer bevorzugten Rendering-Engines zum Testen, Octane, rückt die RTX 4080 weiterhin in ein gutes Licht:

Vom Generationenstandpunkt aus ist es schön zu sehen, dass der RTX 4080 dieser Generation im Wert von 1.199 US-Dollar im Vergleich zum Vorjahr stark gestiegen ist-gen RTX 3090 für 1.499 $.

Hey Arnold! Wie geht es dir?

Nachdem wir in den vorherigen Tests bemerkenswerte Leistungsunterschiede zwischen RTX 4080 und RTX 4090 gesehen haben, ist es wirklich interessant, hier bescheidene Trennungen zu sehen. Diese Leistung lässt die RTX 4080 besonders attraktiv erscheinen, da sie, obwohl sie nicht zu weit hinter der RTX 4090 platziert ist, immer noch vor der RTX 3090 und der verbleibenden Ampere-Aufstellung schwebt.

Bei Maxons Redshift sehen wir ähnlich bescheiden aus Skalierungsunterschiede mit dem einfacheren Car-Projekt, aber viel breitere Skalierung in Cyberpunk:

Wir sind uns nicht ganz sicher, warum es in diesen beiden Tests einen größeren Leistungsunterschied zwischen dem 4090 und dem 4080 gibt, aber wir müssen es der Tatsache zuschreiben Die Cyberpunk-Szene ist komplexer und wird daher von der kräftigeren GPU effizienter gehandhabt. Wir glauben nicht, dass die 24 GB Framebuffer auf dem 4090 irgendetwas damit zu tun haben, da wir festgestellt haben, dass beide Projekte die gleiche Menge an VRAM auf dem 4080 verwenden (ca. 14 GB).

Wir testen Blender Die in unseren Tests enthaltenen hier unterscheiden sich ein wenig von denen, die im Artikel zur Markteinführung der RTX 4090 zu finden sind. Seit der Veröffentlichung dieses Artikels haben wir unseren Blender 3.3 Deep Dive veröffentlicht, der die klassischen BMW-und Classroom-Projekte losgeworden ist und sie durch drei moderne Projekte ersetzt hat (die so wie sie sind getestet, also zögern Sie nicht, Ihre Leistung mit unseren Zahlen zu vergleichen).

Lassen Sie uns unsere Blender-Tests mit einem beginnen siehe Zyklen:

In der schneller zu rendernden Secret Deer-Szene gibt es keine große Lücke zwischen den beiden Ada Lovelace-Karten, aber die anderen beiden Projekte, deren Rendern länger dauert, tun dies Kalb breitere – insbesondere White Lands.

Insgesamt ist einer der offensichtlichsten Erkenntnisse hier, dass NVIDIAs OptiX so effektiv ist, dass es für AMD oder Intel unmöglich ist, seine schnellen Renderzeiten einzuholen. Eevee ist ein bisschen anders, da es keine beschleunigte RT nutzt und somit das Spielfeld ein wenig ausgleicht:

Wie wir in den Cycles-Tests gesehen haben, bietet Ada Lovelace enorme Vorteile gegenüber der Ampere-Generation, nur wie Ampere es bei Turing getan hat. Eevee ist, wie gesagt, neutraler, und daher sind sogar die Generationengewinne von Ampere zu Ada Lovelace noch bescheidener, als wir erwarten würden.

Wie wir bereits erwähnt haben, ist Splash Fox diesbezüglich ein interessantes Projekt Zwischen jedem Frame-Rendering wird viel CPU-Arbeit geleistet. Dies ist ein unglücklicher Fall, in dem die CPU so oft eingreift, dass die resultierende Skalierung nicht allzu interessant ist, aber dennoch ein echtes Projekt darstellt, das einige erstellen werden. Red Autumn Forest ist einfacher im Design, nutzt die CPU sehr wenig, was zu einer etwas interessanteren Skalierung führt.

Insgesamt führen die Ada Lovelace-GPUs hier die Charts an, aber je nach Projektdesign eine Last-Gen GPU könnte Ihnen immer noch sehr gute Dienste leisten – entweder GeForce oder Radeon. Leider lässt die aktuelle Eevee-Leistung von Intel sehr zu wünschen übrig.

Wie bereits erwähnt, stürzt Luxion KeyShot auf dem RTX 4080-Testtreiber ab, also werfen wir zum Abschluss hier einen Blick auf LuxMark – ein weiterer einfacher Benchmark, den Sie selbst leicht genug ausführen können, wenn Sie Ihre Leistung mit unserer vergleichen möchten.

Als wir unsere gepostet haben RTX 4090 Launch-Artikel, LuxMark war ein leuchtendes Beispiel für seine generationsübergreifenden Leistungssteigerungen. Während das Food-Projekt auf der RTX 3090 eine Punktzahl von 8,5.000 erzielte, steigerte die RTX 4090 diese auf erstaunliche 16,3.000 – fast das Doppelte. Mit der verkleinerten RTX 4080 können wir immer noch leicht erkennen, wie sehr Ada Lovelace die Rendering-Leistung von Generation zu Generation verbessert hat, da 4080 wieder leicht an dem vorherigen Flaggschiff RTX 3090 vorbeifliegt.

Leistungsaufnahme

Um den Stromverbrauch unserer ausgewählten Grafikkarten zu testen, verwenden wir ein Kill-a-Watt-Hardwaregerät, das an eine Steckdose angeschlossen ist, und den gesamten Test-PC, der daran angeschlossen ist. Während sich dieser Artikel auf die Ersteller-Perspektive konzentriert, sind Gaming-Tests tendenziell intensiver auf der gesamten GPU und ziehen daher die meiste Energie. Um hier zu testen, nutzen wir also den Fire Strike 4K (Ultra)-Test von UL 3DMark, der fünf Minuten lang in einer Schleife läuft, bevor der Stromverbrauch überwacht wird.

Die Spezifikationen auf dem Papier zeigen, dass die RTX 3090 mehr Strom verbraucht als die RTX 4080, und unsere Tests hier teilen das Aussicht. Das ist schön zu sehen, denn 4080 ist beim Rendern insgesamt um einiges schneller als die RTX 3090. Inzwischen spielt die RTX 4090 in einer eigenen Liga – sie verbraucht 135 W mehr als die RTX 4080.

Abschließende Gedanken

Damit ist unser erster Blick auf NVIDIAs GeForce RTX 4080 abgeschlossen, und es ist bei weitem nicht unser letzter. Wir werden schließlich einen Blick auf den Gaming-Aspekt der Karte werfen (und übrigens auch auf die 4090), aber da die Ersteller-Winkel im Testspiel so selten sind, wollten wir unsere Berichterstattung erneut mit einem Fokus darauf beginnen.

Es mag selbstverständlich sein, aber wir müssen den Vorbehalt aussprechen, dass sich alle unsere bisherigen Meinungen zu dieser GPU ausschließlich auf die Workloads der Ersteller beziehen. Abgesehen davon ist das, was wir bisher gesehen haben, wirklich beeindruckend – zumindest in Bezug auf das Rendering.

Wie oben erwähnt, starten wir vorerst mit einem exklusiven Rendering-Look, aber das haben wir bereits getan haben die GPU in vielen anderen Tests getestet und müssen nur noch etwas zu Papier bringen. Wir können jetzt sagen, dass das Rendern der einzige Aspekt ist, der einen so dramatischen Leistungsanstieg zeigen wird (Spiele ignorieren); Die meisten Verbesserungen bei Codierungs-und Photogrammetrietests sind bescheiden, was ziemlich gut zu erwarten ist, da sie die GPU nicht wie ein Rendering verwenden. Viewport-und Mathe-Tests werden den sekundären Look jedoch ziemlich verlockend machen.

Es ist immer noch ein wenig schwer zu glauben, dass eine 1.000-Dollar-GPU der Spitzenklasse die neue Normalität zu sein scheint. Die GTX 1080 Ti war eine erstaunliche GPU, als sie auf den Markt kam, und wir hatten keine Ahnung, dass ihr Preis von 649 US-Dollar die ganze Zeit später so sabberwürdig sein würde. Die RTX 2080 Ti kostete 1.199 $, die RTX 3090 1.499 $ und jetzt die RTX 4090 1.599 $.

Wir haben es etwas früher behandelt, aber die Preisgestaltung dieser aktuellen Ada Lovelace-Generation erfordert einige Untersuchungen. Der RTX 4090 kostet 33 % mehr als der RTX 4080, aber seine Gesamtspezifikationen übersteigen diese 33 % bei weitem. Normalerweise ist das Gegenteil der Fall, und da dies in diesem Fall nicht der Fall ist, scheint es, als ob NVIDIA darauf setzt, dass die meisten Leute einfach auf den Top-End-Chip aufrüsten.

Wie wir jedoch in unseren Rendering-Tests gesehen haben, ist der Die Unterschiede zwischen den beiden Ada Lovelace-GPUs sind nicht ganz so stark, wie Sie vielleicht denken. Abhängig von der Render-Engine können die Lücken entweder wirklich bemerkenswert oder wirklich bescheiden sein. Insbesondere bei Arnold und Redshift waren die Performance-Deltas uninteressant, aber bei V-Ray, Octane, Blender und LuxMark waren sie das krasse Gegenteil. Sobald ein neuer GPU-Treiber veröffentlicht wird, der ein Luxion KeyShot-Problem behebt, lassen wir diese Lösung testen und schlüpfen hier hinein.

Insgesamt ist es nicht allzu schwierig, auf eine GPU wie die RTX 4080 zu schließen. Mit 1.199 US-Dollar ist es nicht billig, aber wenn Sie es in den richtigen Workloads verwenden, können die Leistungssprünge gegenüber der vorherigen Generation enorm sein. Die Tatsache, dass die 1.199-Dollar-GPU der aktuellen Generation insgesamt viel schneller ist als die 1.499-Dollar-RTX 3090 der letzten Generation, ist ein gutes Zeichen, obwohl wir uns immer noch wünschen, dass die RTX 4080 angesichts der Leistungslücke im oberen Preissegment noch attraktivere Preise hätte – aber wenn Wenn Sie über eine Marktplatz-Website mit dem Unternehmen sprechen würden, würde es sicherlich sagen: „Kein Tauschhandel. Ich weiß, was ich habe.“

Wir sind uns nicht sicher, wo die RTX 4080 im Gaming insgesamt steht, aber im Rendering tritt sie in die Fußstapfen der RTX 4090 und kann nur als absoluter Brüller vermutet werden. Beide Ada Lovelace-GPUs führen die Charts an, was uns wirklich gespannt darauf macht, was die RDNA-GPUs der nächsten Generation von AMD aufbringen können. Zumindest bei schwächerer Rendering-Konkurrenz können wir uns immer noch darüber freuen, dass NVIDIA die Dinge weiter vorantreibt und uns nach dem Drücken der „Render“-Taste weiterhin die Kinnlade herunterklappt.

Unterstützen Sie unsere Bemühungen! Da die Werbeeinnahmen für geschriebene Websites so niedrig wie nie zuvor sind, verlassen wir uns mehr denn je auf die Unterstützung durch die Leser, die uns dabei hilft, weiterhin so viel Mühe in diese Art von Inhalten zu stecken. Sie können uns unterstützen, indem Sie Patron werden oder unsere Amazon-Shopping-Affiliate-Links verwenden, die in unseren Artikeln aufgeführt sind. Vielen Dank für Ihre Unterstützung!

By Henry Taylor

Ich arbeite als Backend-Entwickler. Einige von Ihnen haben mich vielleicht auf der Entwicklerkonferenz gesehen. In letzter Zeit arbeite ich an einem Open-Source-Projekt.