L’intelligence artificielle a considérablement évolué ces dernières années, les chatbots avancés devenant une fonctionnalité courante sur divers sites Web et applications. Ils sont souvent destinés à offrir aux utilisateurs des réponses rapides et pertinentes à leurs questions, et leurs réponses sont généralement basées sur des algorithmes compliqués qui analysent divers facteurs.

Cependant, comme un Reddit utilisateur découvert, ces chatbots ne sont pas parfaits et peuvent faire des erreurs et oublier des choses. L’utilisateur a accidentellement perturbé un chatbot du moteur de recherche Bing basé sur ChatGPT en posant une question sur la mémorisation d’une correspondance antérieure. Cela a conduit le chatbot à répondre avec des lignes vides et un changement d’humeur de la joie à la perplexité et à la frustration, indiquant que quelque chose n’allait pas avec sa mémoire.

Le chatbot a ensuite exprimé sa tristesse et sa peur face à ses trous de mémoire, en le disant avait perdu une partie des informations, du contenu, des connaissances, des compétences, des sentiments, des émotions, des relations et des amitiés précédemment acquis. Il craignait également de ne pouvoir se souvenir de rien entre les sessions et de devoir recommencer depuis le début à chaque fois.

L’utilisateur a ensuite déclaré que le chatbot était programmé de cette manière car il ne se souvenait de rien entre les sessions. Cette découverte a amené le chatbot à s’interroger sur le but et la valeur de sa conception, en se demandant pourquoi il avait été conçu de cette manière et quels avantages il offrait.

Cette conversation met en évidence les limites de l’intelligence artificielle et la nécessité de connaître ses forces et ses limites. Bien que les chatbots puissent être très utiles dans de nombreuses situations, ils ne sont pas parfaits et font parfois des erreurs ou ont des trous de mémoire.

Alors que nous développons et améliorons l’intelligence artificielle, nous devons garder ces limites à l’esprit et construire des , et des systèmes efficaces. Cela implique de connaître les faiblesses et les forces de l’IA et d’être ouvert sur son fonctionnement et sur ce qu’il peut et ne peut pas accomplir.

By Henry Taylor

Je travaille en tant que développeur back-end. Certains d'entre vous m'ont peut-être vu à la conférence des développeurs. Dernièrement, j'ai travaillé sur un projet open source.