GPT 4 est la dernière version de OpenAI, le technicien de laboratoire responsable du populaire outil de conversion de texte en image Dall-E et de l’application encore plus populaire de langage naturel ChatGPT. Et c’est intéressant !

Ce qui rend GPT4 différent, c’est qu’il s’agit d’une IA multimodale, qui peut analyser à la fois les invites de texte et d’image, pour produire des résultats écrits uniquement. Mais aussi, c’est le meilleur logiciel du laboratoire en termes de capacité et de stabilité.

Intrigué ? Alors lisez la suite pour plus d’informations !

Et si vous voulez tous les détails sur GPT4, qui peut y accéder, et comment, lisez mon article dédié sur Aisecrets.com !

Qu’est-ce que le GPT 4 : l’IA qui interprète le langage et les images

Le dernier modèle d’IA d’OpenAI accepte les invites – entrées ou instructions de l’utilisateur – écrites ou visuelles (telles que des photos, des captures d’écran, des diagrammes, etc.) mais produit des résultats uniquement textuels.

En plus de comprendre les instructions écrites, GPT 4 peut identifier et analyser les éléments d’une image et utiliser cette interprétation pour effectuer différentes tâches.

Et il peut le faire avec beaucoup plus de précision que jamais. Selon OpenAI, ce logiciel a obtenu les meilleurs résultats jamais obtenus lors de ses tests. Bien qu’ils précisent qu’il ne remplace pas les humains dans les scénarios du monde réel, ils affirment qu’il atteint des résultats de performance au niveau humain dans différents environnements professionnels et universitaires.

Ce qui est construit avec GPT 4 : des applications qui aident les humains

L’entreprise se concentre sur le fait que ce développement ne vise pas à remplacer les humains dans leur travail ou leurs capacités, mais plutôt pour les aider, que ce soit pour améliorer les flux de travail ou les aider dans les domaines où ils en ont besoin.

Par exemple, nous avons appris que Microsoft nouveau chatbot Bing utilise GPT 4 et qu’une application d’assistance pour les malvoyants nommée Be My Eyes a développé un un nouveau Volontaire Virtuel capable d’analyser les images fournies par les utilisateurs et de répondre aux questions ou d’en tirer d’autres résultats pertinents, comme leur dire ce qu’il y a dans leur réfrigérateur et ce qu’ils peuvent cuisiner avec.

Dans l’ensemble, c’est une nouvelle technologie très intéressante et une nouvelle étape dans l’apprentissage en profondeur appliqué à la vie quotidienne.

By Kaitlynn Clay

Je travaille en tant qu'expert UX. Je m'intéresse à la conception de sites Web et à l'analyse du comportement des utilisateurs. Pendant mes jours de congé, je visite toujours le musée d'art.