Mise à jour du 9 janvier : résultats ajoutés pour la GeForce RTX 4070 Ti de NVIDIA.
Nous avons du mal à ne pas parler de Blender, alors quel meilleur article pour saluer 2023 qu’un regard approfondi sur les performances de la dernière version 3.4 ? Comme toujours, nous examinerons la dernière version avec notre collection de GPU à travers des tests de rendu pour Cycles et Eevee, ainsi que des fréquences d’images depuis l’intérieur de la fenêtre d’affichage interactive.
La sortie de Blender 3.4 est lié à la sortie d’un nouveau film ouvert de Blender Studio appelé Charge. Ces films ouverts existent non seulement pour mettre en évidence ce dont Blender est capable, mais pour fournir les fichiers de projet réels afin que les utilisateurs puissent creuser et mieux comprendre comment tout s’assemble. Si vous n’avez pas encore vu Charge, jetez-y un coup d’œil:
Nous espérions inclure le projet d’écran de démarrage Charge dans nos résultats d’analyse comparative ici, mais il plante actuellement Blender lorsque vous essayez de rendre l’une de nos configurations. Nous reviendrons sur le projet avant le lancement de la 3.5, car ce serait vraiment bien de l’inclure pour les tests car c’est l’un des projets les plus beaux que nous ayons vus.
Pour ceux qui veulent un rapide regardez les principales fonctionnalités ajoutées à Blender 3.4, consultez la vidéo officielle qui l’explique dans cinq minutes. Si vous voulez entrer dans le vif du sujet, vous devriez explorer les notes de version complètes.
Bien qu’il s’agisse d’un article axé sur le GPU, l’une des fonctionnalités notables trouvées dans Blender 3.4 tourne autour de la bibliothèque de guidage de chemin d’Intel, qui peut considérablement améliorer l’efficacité de l’échantillonnage dans les charges de travail de rendu liées au processeur. En effet, vous verrez un résultat beaucoup plus détaillé avec le même niveau d’échantillon. Nous n’avons pas encore testé Blender 3.4 pour le rendu du processeur, mais nous y reviendrons sous peu pour une prochaine révision.
Bien que Blender 3.3 ait introduit la prise en charge d’Arc d’Intel, il est suggéré d’utiliser les derniers pilotes pour une meilleure expérience dans celui-ci et 3.4. Avec AMD HIP sous Linux, une mise à niveau vers ROCm 5.3 ou une version plus récente sera nécessaire pour effectuer le rendu sur Radeon. Sur Apple, les GPU Intel peuvent désormais être utilisés pour le rendu dans macOS 13.
Gammes de GPU AMD, Intel et NVIDIA, nos méthodologies de test
Les tableaux ci-dessous représentent l’actuel et le dernier gen GPU des trois fournisseurs de graphiques. Depuis la publication de notre analyse approfondie de Blender 3.3, AMD a lancé ses dernières Radeon, qui font partie de l’architecture RDNA3.
La tarification des GPU étant partout ces derniers temps, il est plus difficile que jamais d’épingler un modèle comme étant le”meilleur”rapport qualité-prix. En ce qui concerne le SRP, le choix le plus séduisant pour nous reste la GeForce RTX 3070 de NVIDIA, bien que pour les charges de travail plus modernes, sa mémoire tampon de 8 Go puisse sembler limitée avant longtemps.
Actuellement, les nouveaux GPU d’AMD et de NVIDIA répondent aux ceux qui sont prêts à dépenser 800 $ ou plus pour leur nouvelle carte graphique, donc si c’est trop riche pour votre sang, le marché de l’occasion vaudra la peine d’être examiné. Avec le déploiement de ces nouvelles générations de GPU, les cartes de dernière génération remplissent divers marchés, donc si vous gardez les yeux ouverts, vous pourrez peut-être obtenir un modèle de GPU de dernière génération compétent pour un prix réellement attractif.
Néanmoins, les performances sont l’objet de cet article, alors passons à un rapide coup d’œil à notre PC de test et aux directives générales de test, puis poursuivons avec le spectacle :
Tous les benchmarks effectués pour cet article a été rédigé à l’aide d’un Windows 11 (22H2) à jour, du dernier pilote de chipset AMD, ainsi que du dernier pilote graphique (au moment des tests).
Voici quelques informations générales directives que nous suivons :
les services perturbateurs sont désactivés ; par exemple: Search, Cortana, User Account Control, Defender, etc. Les overlays et/ou autres extras ne sont pas installés avec le pilote graphique. Vsync est désactivé au niveau du pilote. Les systèmes d’exploitation ne sont jamais transplantés d’une machine à une autre. Nous validons les configurations du système avant de lancer tout test. Les tests ne commencent que lorsque le PC est inactif (maintient une puissance minimale constante). Tous les tests sont répétés jusqu’à ce qu’il y ait un degré élevé de confiance dans les résultats.
Notez que tous les projets de rendu testés pour cet article peuvent être téléchargés directement depuis le propre site Web de Blender . Les valeurs par défaut pour chaque projet ont été laissées telles quelles, vous pouvez donc définir votre appareil de rendu, appuyer sur F12 et comparer votre temps de rendu dans un projet donné au nôtre.
Cycles GPU : AMD HIP, Intel oneAPI et NVIDIA OptiX
En comparant ces résultats à ceux trouvés dans notre Blender 3.3 performances profondes, nous pouvons voir que peu de choses ont changé. Certains chiffres ont changé – pour le mieux – mais pas de manière significative. La différence la plus importante est que ces derniers graphiques ont les nouveaux GPU RDNA3 d’AMD. Le RX 7900 XT et le RX 7900 XTX ont du mal à suivre l’API OptiX de NVIDIA lorsqu’ils sont utilisés avec des GPU encore plus bas de gamme, bien que les deux se révèlent puissants dans le projet White Lands.
Nous commençons à ressembler à un record battu, mais en ce qui concerne Blender’s Cycles, NVIDIA est imbattable. Cela dit vraiment quelque chose lorsque le fleuron haut de gamme de la génération actuelle d’AMD a du mal à dépasser l’une des options bas de gamme de NVIDIA de la génération précédente. OptiX est tout simplement trop puissant pour que la concurrence puisse suivre le rythme en ce moment, ce qui nous amène à :
Pas d’OptiX : AMD HIP, Intel oneAPI et NVIDIA CUDA
Lors de la configuration d’un rendu périphérique dans une version moderne de Blender, vous remarquerez à la fois une option CUDA et OptiX qui peut être utilisée avec les GPU NVIDIA. L’option OptiX est apparue pour la première fois dans la version 2.81, et en un rien de temps, elle nous a fait exploser. Après son déploiement initial, nous avons régulièrement testé CUDA et OptiX pour montrer les énormes différences de performances entre eux.
Il y a environ un an, nous avons estimé qu’il était enfin suffisamment sûr pour considérer OptiX dans Blender comme un remplaçant de CUDA , nous avons donc complètement abandonné CUDA et simplifié nos tests en comparant la meilleure API pour chaque fournisseur. Parce qu’OptiX peut exploiter les cœurs de traçage de rayons accélérés du GPU RTX, et parce que la qualité d’image résultante est la même, choisir OptiX est une évidence.
Avec le lancement des GPU Arc d’Intel il y a quelques mois, nous J’ai entendu plusieurs lecteurs dire que c’était peut-être le bon moment pour comparer tous les GPU d’une manière pomme à pomme-c’est-à-dire opter pour CUDA avec les GPU NVIDIA et s’en tenir à HIP pour AMD et oneAPI pour Intel. Cela signifie effectivement que tous les fournisseurs de GPU sont sur un pied d’égalité.
Ainsi, la prochaine poignée de graphiques utilise les mêmes projets que ceux ci-dessus, mais remplacez OptiX de NVIDIA par CUDA. Nous incluons également des graphiques NVIDIA uniquement qui mettent facilement en évidence les avantages de performances qu’OptiX permet à tous les niveaux :
Il y a beaucoup à apprendre de tous ces résultats. Dans le projet Secret Deer, par exemple, la Radeon RX 7900 XTX haut de gamme d’AMD était assise derrière la GeForce RTX 3060 lorsque OptiX était impliqué, mais lors de l’utilisation de CUDA, elle parvient à se propulser à côté des offres haut de gamme de dernière génération de NVIDIA. Ces forces de performance pour AMD se poursuivent à travers les autres graphiques.
Une autre chose qui ressort est que même sans OptiX, les dernières GeForces Ada Lovelace haut de gamme de NVIDIA ne peuvent pas être touchées. Tous deux prennent suffisamment d’avance pour se retrouver à un autre niveau de performance. Lorsque nous examinons les graphiques Optix vs No OptiX, nous voyons de nombreux exemples où ces cœurs RT peuvent réduire de plus de moitié les temps de rendu.
Cela nous donne l’espoir que lorsque AMD et Intel gagneront leurs capacités d’accélération RT dans Blender, nous pourrions également voir d’énormes augmentations de performances pour eux. Cela dit, nous n’allons pas compter sur quoi que ce soit jusqu’à ce que nous le voyions, car comme nous l’avons vu dans le passé, Radeon ProRender d’AMD offre une accélération RT pour les GPU d’AMD, et NVIDIA a même réussi à gagner ces batailles, sans la possibilité de puisez dans OptiX.
Nous sommes particulièrement désireux de voir comment l’accélération RT d’Intel aidera les choses. Alors qu’Intel ne s’adresse actuellement qu’à la partie inférieure du marché, il a été prouvé que ses cartes Arc offrent d’excellentes performances de rendu pour leur prix. Avec notre bataille CUDA, l’Arc A770 se place juste derrière le RTX 3070 dans chaque projet-ce GPU NVIDIA que nous appelons souvent le meilleur rapport qualité-prix. Pendant ce temps, la carte AMD comparable de dernière génération, 6700 XT, est en retard sur les deux.
On s’attend à ce qu’AMD et Intel aient une accélération RT ajoutée à Blender d’au moins sa version 3.6, donc si tout se passe bien , nous obtiendrons des réponses à toutes nos questions dans les six prochains mois.
Le moteur de rendu Cycles n’est qu’une partie de l’équation de Blender ; sur la page suivante (et finale), nous allons explorer les performances lors du rendu avec Évoli, et également travailler à l’intérieur de la fenêtre d’affichage.
Soutenez nos efforts ! Avec les revenus publicitaires à un niveau historiquement bas pour les sites Web écrits, nous comptons plus que jamais sur le soutien des lecteurs pour nous aider à continuer à consacrer autant d’efforts à ce type de contenu. Vous pouvez nous soutenir en devenant mécène ou en utilisant nos liens d’affiliation d’achat Amazon répertoriés dans nos articles. Merci pour votre soutien !
J'ai travaillé dans l'informatique pendant 7 ans. C'est amusant d'observer le changement constant dans le secteur informatique. L'informatique est mon travail, mon passe-temps et ma vie.