© DANIEL CONSTANTE/Shutterstock.com

NVIDIA a beaucoup fait pour faire progresser de nombreuses technologies ces dernières années. Le fabricant de GPU est devenu une sorte d’avant-garde pour l’intelligence artificielle et l’apprentissage automatique. Cela est dû en partie au développement de leurs cœurs tenseur et CUDA. Mais quelle est la différence entre ces deux technologies ? Ils peuvent tous deux aider à accélérer le traitement nécessaire aux processus d’IA et de ML, mais sont-ils vraiment si différents ?

Jetons un coup d’œil à la technologie et aux détails derrière ces deux aides au traitement.

Tensor Core contre CUDA Core : comparaison côte à côte

FeatureTensor CoreCUDA CoreAccuracyFaible précisionHaute précisionCompute SpeedVitesse de calcul plus rapideMachine Learning Adapté à l’apprentissage automatiquePeut gérer l’apprentissage automatique, mais pas idéal pour celaUtiliser CaseLow-développement d’intelligence artificielle haut de gamme et haut de gammeTraitement graphique à haut débitUtiliser la réduction de cyclePeut réduire les cycles d’utilisation pour les opérations mathématiquesNe peut pas réduire les cycles d’utilisationOpérations par cycle d’horlogePlusieurs opérations par cycle d’horloge1Traitement graphiqueNon adapté au traitement graphiqueConçu pour le traitement graphique, alimente les GPU NVIDIA modernes.

Tensor Core contre CUDA Core : quelle est la différence ?

Les cœurs Tensor et CUDA ont tous deux la particularité d’être une technologie propriétaire développée par NVIDIA. Cependant, leurs cas d’utilisation globaux ne pourraient pas être plus différents. Examinons quelques-unes des principales différences entre les technologies.

Cas d’utilisation

Les cœurs CUDA sont un principe de la gamme de GPU NVIDIA depuis l’introduction de la gamme Maxwell en 2014. Ils fournissent une couche de supervision logicielle pour l’accès et fonctionnent bien pour accélérer le traitement graphique. Vous pouvez voir les cœurs CUDA en action avec n’importe quel PC exécutant un GPU NVIDIA moderne, de la série GTX 900 à la série de cartes RTX 4000 modernes. Il n’est pas entièrement développé à des fins d’apprentissage automatique ou de traitement de l’intelligence artificielle, mais peut le gérer avec une certaine facilité par rapport au traitement purement lié au processeur.

 Cœurs CUDA Power PC exécutant des GPU NVIDIA, tels que le GTX 980MX.

©Hairem/Shutterstock.com

Les cœurs Tensor, en revanche, sont construits pour le traitement et le traitement de calculs volumineux. Ils ont été développés par NVIDIA pour fournir un traitement mathématique plus robuste par rapport aux cœurs CUDA, et cela se voit dans la façon dont il aborde les opérations mathématiques individuelles. Là où un cœur CUDA peut gérer un seul calcul dans un cycle d’horloge, le cœur du tenseur peut en gérer une multitude. Ceci est dû au fait que le cœur du tenseur gère les calculs via des matrices, effectuant plusieurs calculs successifs ou parallèles dans un seul cycle d’horloge. Comme vous pouvez l’imaginer, cela fait des cœurs de tenseur un excellent choix pour le développement de l’IA et du ML.

Il existe certainement des GPU d’entreprise fournis par NVIDIA pour des tâches graphiques et de traitement plus importantes, mais si vous êtes dans le domaine de l’IA, vous voudrez gérer les choses via des cœurs de tenseur.

Apprentissage automatique et IA

L’apprentissage automatique et l’intelligence artificielle ont fait sensation ces dernières années. Il y a eu des reportages constants sur les développements récents et les implémentations de ce qui était encore une fois une technologie marginale. L’IA est importante dans un certain nombre d’industries, desservant le service client pour le commerce de détail et les bourses, et alimentant les systèmes de conduite autonome alimentant les voitures modernes. Il y a de fortes chances que si un développeur d’IA ne décharge pas le traitement sur un fournisseur de services gérés basé sur le cloud, il utilise des processeurs basés sur NVIDIA.

Avant le développement et le déploiement des cœurs de tenseur, cela était géré par Cœurs CUDA. Bien que les cœurs CUDA gèrent ces processus beaucoup plus rapidement que n’importe quel processeur natif en raison de la nature de leur fonction, ce n’est pas une solution idéale. Le cœur du tenseur a été construit uniquement par NVIDIA pour fournir un traitement et des calculs à grande vitesse pour le développement orienté IA et ML. Ils ne gèrent pas l’accélération graphique, mais pour leur fonction prévue, c’est à peine une pensée.

Le développement de l’IA gère de grands ensembles de données et des calculs massifs, et en tant que tel, il s’agit d’un processus chronophage. Les cœurs Tensor gèrent ces ensembles de données et ces chiffres avec aplomb. Les cœurs CUDA peuvent certainement les gérer, mais ils ne constituent pas une solution idéale pour cela. Les deux cœurs peuvent gérer des calculs numériques intensifs à des vitesses bien supérieures à votre processeur moyen. Cela dit, si vous cherchez à créer votre propre plate-forme de modélisation d’IA personnalisée, les cœurs de tenseur sont la voie à suivre pour des performances optimales.

Pour la modélisation de l’IA et l’apprentissage automatique, les cœurs tensoriels offrent les meilleures performances.

©sdecoret/Shutterstock.com

Précision

La précision en informatique fait référence au niveau de précision représenté numériquement par tous les calculs. Avec des objets comme votre calculatrice standard de tourbière, la précision n’est pas élevée, étant un appareil plutôt anémique par rapport à un PC moderne. Les cœurs CUDA sont extrêmement précis, ou très précis, dans leur représentation des calculs numériques. Ceci est en contraste frappant avec la façon dont les noyaux tenseurs gèrent la précision. La précision mixte est le nom du jeu pour les cœurs de tenseur, et cela présente des avantages pour son cas d’utilisation prévu.

Les cœurs Tensor effectuent automatiquement une modélisation de précision mixte, accélérant rapidement les calculs à un rythme rapide. Cela concerne un terme appelé vitesse de calcul, une métrique mesurée par la vitesse à laquelle un processeur peut mesurer des calculs. Les cœurs de tenseur utilisent des matrices de modèles de précision mixtes pour accélérer rapidement la vitesse de calcul. À l’inverse, les cœurs CUDA ne peuvent effectuer qu’un seul calcul par cycle d’horloge.

Si la précision des chiffres est vraiment importante pour le travail que vous faites, alors les cœurs CUDA sont le meilleur choix. Pour ceux qui cherchent à effectuer d’énormes quantités de calculs, les cœurs tensoriels sont le seul choix logique.

Tensor Core contre CUDA Core : faits incontournables

Tensor Core

La réponse de NVIDIA à l’utilisation de ses GPU dans le développement de l’IALe moyen le plus rapide de gérer de grands ensembles de données sans personnalisation matérielLa quatrième génération de matériel prend en charge six modèles de précision simultanés. Les cœurs Tensor facilitent le lancer de rayons sur le matériel NVIDIA.

L’un des moteurs des GPU NVIDIA modernes pour le traitement graphique. de cœurs parallèlesLes cœurs CUDA sont bien adaptés aux hachages cryptographiques, aux calculs physiques et au rendu graphique des jeux

Tensor Core contre CUDA Core : lequel devez-vous utiliser ?

Avec un sujet aussi captivant à l’esprit, qui convient vos besoins? Si vous recherchez juste quelque chose pour rendre vos jeux superbes, vous tirerez parti d’un certain degré de noyau de tenseur et de noyau CUDA en même temps. Cela est doublement vrai si votre plate-forme de jeu exécute une carte graphique RTX moderne et effectue le lancer de rayons. Dans le contexte de l’accélération graphique, ils travaillent en étroite collaboration mais remplissent des tâches très différentes.

Si vous recherchez du matériel pour accélérer vos plates-formes d’IA, les cœurs de tenseurs sont un excellent choix. NVIDIA a compris cela et fabrique désormais des cartes spécialisées exécutant des cœurs tenseurs comme le NVIDIA A100. Avec une capacité stupéfiante de 80 Go de VRAM, cette carte de qualité professionnelle peut gérer jusqu’à 2 To par seconde de données pour exécuter des modèles d’IA et de ML de plus en plus complexes.

Les cœurs CUDA ont toujours leur place dans l’IA et sont très rapides si vous n’êtes pas dans le domaine du développement de modèles d’IA massifs. Pour ceux qui cherchent à faire des recherches de manière indépendante ou qui gèrent un petit magasin d’IA, les cartes grand public haut de gamme peuvent tout aussi bien fonctionner pour la gestion des tâches. Ils peuvent prendre plus de temps, mais ils peuvent faire leur part avec compétence.

Tensor Core contre CUDA Core : quelle est la différence ? FAQ (Foire aux questions) 

Les cœurs tensoriels et les cœurs CUDA sont-ils utilisés à d’autres fins ?

Les cœurs tensoriels et les cœurs CUDA pourraient très facilement être exploités à des fins mathématiques des concepts lourds comme le hachage cryptographique. Le hachage nécessite des moyens intensifs pour gérer les nombres massifs utilisés pour ensemencer le hachage lui-même. En tant que tel, avoir un processeur externe à haute vitesse et précis n’est qu’un avantage pour le hachage.

En dehors de cela, vous verrez les cœurs CUDA et les cœurs de tenseur utilisés pour l’accélération graphique et l’ajout de toutes les cloches et les sifflets auxquels vous vous attendez dans les jeux sur PC modernes.

À quoi peut servir l’IA ?

Outre les tâches plus lourdes comme l’automatisation et la conduite autonome, l’IA voit des utilisations dans bien d’autres domaines. L’utilisation la plus courante que vous pourriez voir est si vous travaillez professionnellement dans les médias. Si vous avez déjà utilisé un algorithme de débruitage, vous avez utilisé une sorte d’IA dans votre travail.

Les filtres anti-spam et la gestion automatique des tâches pour les e-mails fonctionnent également à partir de l’IA. Les utilisateurs peuvent même former le modèle eux-mêmes en spécifiant des messages supplémentaires qui sont du spam ou nuisibles afin que le modèle puisse mieux reconnaître les messages utiles.

Les utilisateurs à domicile peuvent-ils travailler dans l’IA ?

Les travaux sur l’IA et le ML ont certainement été réalisés par des chercheurs amateurs. Ils n’ont peut-être pas les moyens de votre énorme conglomérat technologique moyen pour dépenser en matériel, mais beaucoup s’en sortent très bien avec du matériel grand public moyen.

Le traitement prendra sans aucun doute beaucoup plus de temps, mais si vous avez la patience que vous pouvez engager dans ce genre de travail tout en portant des sweats.

AMD propose-t-il quelque chose de similaire aux cœurs tenseurs ?

Les cœurs Tensor et CUDA sont tous les deux technologies propriétaires développées par NVIDIA, et en tant que telles, il n’y a pas vraiment grand-chose sur le marché qui se compare. Il existe certainement des unités matérielles de niveau entreprise conçues exclusivement pour le traitement des modèles d’IA, mais elles sont extrêmement coûteuses.

Dans l’espace domestique, les GPU AMD n’exploitent pas les mêmes technologies pour le lancer de rayons ou l’accentuation de la résolution dynamique. AMD pourrait avoir d’autres options pour affiner l’image et offrir une plus grande fidélité, mais rien qui se compare directement à ce que NVIDIA a sur le marché actuellement.

Les cœurs tenseurs ont-ils d’autres utilisations ?

Bien qu’ils aient été principalement développés pour la modélisation de l’IA, les cœurs de tenseur se trouvent sur les GPU NVIDIA les plus récents. Dans un paramètre d’accélération graphique, ils ne sont pas idéaux pour des choses comme les polygones ou l’anticrénelage. Au lieu de cela, ils se concentrent sur la fourniture de choses comme le lancer de rayons. L’échange de résolution dynamique est un autre domaine dans lequel ils peuvent exceller, offrant une surcharge suffisante pour gérer et maintenir des fréquences d’images cohérentes.

By Kaitlynn Clay

Je travaille en tant qu'expert UX. Je m'intéresse à la conception de sites Web et à l'analyse du comportement des utilisateurs. Pendant mes jours de congé, je visite toujours le musée d'art.