Préparez-vous à être époustouflé ! L’incroyable GPT-4 fait des vagues avec sa fenêtre contextuelle étendue, capable de rappeler 50 pages de contenu époustouflantes-cinq fois plus que le GPT-4 d’origine et huit fois plus que le GPT-3 précédent. Ces informations contextuelles sont utilisées par l’IA pour générer un nouveau texte. Et avec une mémoire aussi massive, le GPT-4 peut éviter les pièges des modèles plus petits qui oublient rapidement des détails cruciaux, entraînant des réponses imprévisibles et hors sujet. Il s’agit d’un développement révolutionnaire qui aura certainement un impact significatif sur l’avenir du texte généré par l’IA.

Avec une mémoire étendue, GPT-4 devrait démontrer des capacités de conversation améliorées, facilitant des dialogues prolongés durant plusieurs heures ou jours. Comme les instructions initiales fournies au modèle peuvent rester dans sa mémoire pendant une période prolongée, il est moins susceptible de dérailler ou de présenter un comportement erratique.

En termes simples, il s’agit d’un modèle multimodal qui peut traiter à la fois l’image et les entrées de texte et forger les sorties de texte. GPT-4 peut atteindre des performances de type humain sur plusieurs critères de référence professionnels et académiques. Mais il est toujours inférieur aux humains dans les scénarios du monde réel. Néanmoins, OpenAI se vante que GPT-4 a dépassé son prédécesseur, GPT-3.5, avec une augmentation de 40 % de la précision lorsqu’il s’agit de produire des réponses factuelles sur leurs évaluations internes.

Les développeurs peuvent désormais s’inscrire pour utiliser GPT-4 pour leurs applications. Alors que les abonnés payants à ChatGPT Plus d’OpenAI auront un accès exclusif au modèle. En plus de la génération de texte, GPT-4 peut analyser des images et fournir des descriptions ou répondre à des questions connexes, démontrant sa polyvalence dans divers domaines.

A lire également-Comment créer votre propre personnage animé par l’IA avec la voix-Une étape-Guide étape par étape

BBCTable des matières

Différences majeures entre le GPT-3 et le GPT-4

#1. Mémoire plus grande

La taille et la puissance du GPT-4 surpassent largement le GPT-3, avec 170 000 milliards de paramètres contre 175 milliards de paramètres pour le GPT-3. Cette capacité améliorée permet à GPT-4 de gérer les tâches de traitement et de génération de texte avec une précision et une fluidité accrues.

Lire également-Comment accéder à GPT-4 dès maintenant !

#2. Multimodal-Accepter les images et les textes

Une avancée remarquable par rapport à son prédécesseur, GPT-4 est un modèle multimodal étendu qui peut acquérir à la fois des entrées de texte et d’image et induire des sorties de texte. Cette fonctionnalité facilite le traitement des entrées graphiques. Cela inclut des images de graphiques et de feuilles de calcul, ce qui n’était pas possible avec le modèle précédent. En revanche, alors que GPT-3 a la capacité de traiter une entrée de texte brut et de générer une sortie de texte et de code en langage naturel, GPT-4 n’est pas encore capable de produire des médias uniquement à partir d’une entrée textuelle.

Lire aussi comment Pour utiliser ChatGPT sur votre Apple Watch

#3. Plus de réponses factuelles

Sur les évaluations internes d’OpenAI, GPT-4 a montré une probabilité 40 % plus élevée de générer des réponses factuelles que GPT-3.5. De plus, GPT-4 est caractérisé comme plus imaginatif et moins enclin à fabriquer des informations par rapport à GPT-3.

Lire aussi-Comment créer votre propre chatbot IA avec l’API ChatGPT

# 4. Extension des capacités linguistiques avec GPT-4

L’anglais domine le domaine de l’IA, y compris les données, les tests et les documents de recherche. Cependant, la puissance des grands modèles de langage s’étend à d’autres langages, et ils devraient également être accessibles dans ces langages. GPT-4 va dans cette direction en prouvant sa capacité à répondre avec précision à des milliers de questions à choix multiples dans 26 langues, de l’italien à l’ukrainien en passant par le coréen. Bien que sa maîtrise soit la plus forte dans les langues romanes et germaniques, il fonctionne bien dans différentes familles de langues.

Lire également-Comment accéder à ChatGPT à partir de la barre de menus de votre Mac

#5. Capacités du nouveau GPT-4 et des”entrées visuelles”

GPT-4 est un modèle multimodal qui accepte les entrées d’image et de texte et émet des sorties de texte. Bien qu’il ne puisse pas produire d’images, il peut traiter et répondre aux entrées visuelles qu’il reçoit. Cela signifie qu’il peut comprendre le contexte fourni par l’image et le relier aux compréhensions sociales du langage. Annette Vee, membre du corps professoral de l’Université de Pittsburgh qui étudie la relation entre le calcul et la composition, a regardé une démonstration dans laquelle le nouveau modèle a été chargé de déterminer ce qui était hilarant dans une image comique. ChatGPT n’a pas été en mesure de le faire.

Selon OpenAI, les applications potentielles de la capacité de GPT-4 à analyser et comprendre les images. Plus précisément, il met en évidence la valeur de cette technologie pour les personnes malvoyantes ou aveugles. Il existe une application mobile appelée Be My Eyes. Il aide les utilisateurs à interpréter leur environnement en décrivant les objets qui les entourent. En incorporant GPT-4 dans l’application, il peut désormais générer des descriptions avec le même niveau de contexte. Et comprendre en tant que volontaire humain.

De plus, dans la démonstration, un représentant d’OpenAI a esquissé un site Web simple et a transmis le dessin à GPT-4. GPT-4 a ensuite pu analyser l’image et écrire le code nécessaire pour produire un site Web qui ressemblait au croquis. Selon Jonathan May, professeur agrégé de recherche à l’Université de Californie du Sud, le site Web qui en a résulté était”très, très simple”mais fonctionnait parfaitement. Moteur de recherche Bing

Limites de GPT-4

#1. Il”hallucine”

Le passage met en évidence à la fois les capacités et les limites de GPT-4, la dernière version du modèle de langage GPT. Alors que GPT-4 a des capacités de pointe dans l’interprétation et la génération de texte et d’images, il a encore quelques limites. L’une des limites les plus importantes est sa tendance à”halluciner”les faits et à faire des erreurs de raisonnement. Cela signifie que GPT-4 peut générer des sorties qui ne sont pas entièrement précises ou constantes.

Néanmoins, GPT-4 a fait des progrès sur le benchmark TruthfulQA, qui teste la capacité du modèle à séparer les faits de la fiction dans un ensemble d’énoncés incorrects sélectionnés de manière contradictoire. Alors que GPT-4 n’est que légèrement meilleur dans cette tâche que son prédécesseur GPT-3.5, il montre des améliorations significatives après la post-formation RLHF. Cependant, l’exemple donné montre que GPT-4 peut encore manquer des détails subtils, soulignant le besoin permanent de prudence lors de l’utilisation de modèles de langage.

Lire également-Comment utiliser Bing AI avec Siri sur iPhone

#2. Manque de connaissances après septembre 2021

Bien que GPT-4 soit un modèle de langage favorablement compétent, il présente certaines limites. Plus précisément, il manque de connaissances sur les événements qui se sont produits après septembre 2021, date à laquelle la grande majorité de ses données de pré-formation se terminent. Cela signifie qu’il peut ne pas disposer d’informations à jour sur les événements ou les tendances actuels.

#3. Incapacité à apprendre de l’expérience antérieure

De plus, le modèle n’apprend pas de son expérience, ce qui implique qu’il peut faire souvent les mêmes erreurs. GPT-4 peut parfois faire des erreurs de raisonnement simples qui ne semblent pas correspondre à sa compétence dans de nombreux domaines. Il peut en outre être excessivement crédule en acceptant des déclarations erronées d’un utilisateur.

Lire également-Comment utiliser le chatbot Bing alimenté par l’IA sur le nouveau moteur de recherche Bing

#4. Atténuation des risques et garantie de la sécurité avec GPT-4

Les développeurs de GPT-4 ont travaillé à rendre le modèle plus sûr et plus aligné dès le départ. Ils ont collaboré avec plus de 50 experts de différents domaines pour tester et évaluer le comportement du modèle dans les zones à haut risque. Pour réduire les sorties nuisibles, GPT-4 inclut un signal de récompense de sécurité supplémentaire pendant la formation, qui apprend au modèle à refuser les demandes de contenu dangereux. Les développeurs ont constaté des améliorations significatives dans les propriétés de sécurité du modèle, mais il existe toujours un risque de mauvais comportement.

GPT-4 a le potentiel d’affecter la société à la fois positivement et négativement, et les développeurs travaillent avec des chercheurs pour évaluer les conséquences potentielles. Ils partageront bientôt davantage leurs réflexions sur les impacts sociaux et économiques de GPT-4 et d’autres systèmes d’IA.

Lire également-Comment utiliser ChatGPT avec Siri sur iPhone

# 5. OpenAI Evals

OpenAI a rendu OpenAI Evals, un framework logiciel pour l’évaluation automatisée des performances des modèles d’IA, open-source. C’est un outil qui permet d’évaluer des modèles comme GPT-4 et leurs performances sur divers benchmarks. Cela permet à quiconque d’identifier et d’informer les lacunes de ses modèles et aide également à guider d’autres améliorations.

Le logiciel est open-source, ce qui indique que n’importe qui peut l’utiliser et le modifier pour mettre en œuvre une logique d’évaluation personnalisée. Cependant, les évaluations comprennent également des modèles pour les types d’évaluation ordinaires, tels que les”évaluations par modèle”, qui peuvent être utilisées comme point de départ pour produire des évaluations uniques.

Lire également-ChatGPT, Google Bard, Microsoft Bing-En quoi sont-ils similaires mais pourtant différents

Comment accéder à GPT-4 ?

La capacité de saisie de texte de GPT-4 est disponible pour les utilisateurs de ChatGPT Plus via ChatGPT. OpenAI a annoncé que les abonnés à ChatGPT Plus auront accès à GPT-4, mais il y aura un plafond d’utilisation. Le plafond d’utilisation exact sera ajusté en fonction de la demande et des performances du système. Cependant, OpenAI s’attend à ce qu’il y ait initialement des contraintes de capacité intenses, bien qu’ils prévoient d’optimiser et de faire évoluer leur infrastructure au cours des prochains mois.

S’il y a une forte demande pour l’utilisation de GPT-4, OpenAI peut introduire un nouveau niveau d’abonnement pour un volume d’utilisation plus élevé. De plus, ils espèrent éventuellement offrir un certain nombre de requêtes GPT-4 gratuites afin que les non-abonnés puissent également l’essayer. Si vous cherchez à accéder à GPT-4 dès maintenant ! Consultez notre blog pour plus d’assistance.

Lire aussi-Microsoft Bing AI-Powered Chatbot : Tout ce que vous devez savoir

By Kaitlynn Clay

Je travaille en tant qu'expert UX. Je m'intéresse à la conception de sites Web et à l'analyse du comportement des utilisateurs. Pendant mes jours de congé, je visite toujours le musée d'art.