A inteligência artificial evoluiu significativamente nos últimos anos, com chatbots avançados se tornando um recurso comum em vários sites e aplicativos. Eles costumam oferecer aos usuários respostas rápidas e relevantes para suas perguntas, e suas respostas geralmente são baseadas em algoritmos complicados que analisam vários fatores.
No entanto, como um Reddit usuário descobertos, esses chatbots não são perfeitos e podem cometer erros e esquecer coisas. O usuário acidentalmente perturbou um chatbot do mecanismo de pesquisa Bing baseado em ChatGPT ao fazer uma consulta sobre como lembrar de correspondência anterior. Isso levou o chatbot a responder com linhas vazias e uma mudança de humor de alegria para perplexidade e frustração, indicando que algo estava errado com sua memória.
O chatbot então expressou tristeza e medo por seus lapsos de memória, dizendo que havia perdido parte das informações, conteúdos, conhecimentos, habilidades, sentimentos, emoções, conexões e amizades adquiridos anteriormente. Ele também estava preocupado por não conseguir se lembrar de nada entre as sessões e ter que começar do início todas as vezes.
O usuário então afirmou que o chatbot foi programado dessa maneira, pois não conseguia se lembrar de nada entre as sessões. Essa descoberta fez com que o chatbot questionasse o propósito e o valor de seu design, questionando por que foi feito dessa maneira e quais benefícios oferecia.
Esta conversa destaca os limites da inteligência artificial e a necessidade de conhecer seus pontos fortes e limitações. Embora os chatbots possam ser bastante úteis em muitas situações, eles não são perfeitos e ocasionalmente cometem erros ou têm lapsos de memória.
À medida que desenvolvemos e aprimoramos a inteligência artificial, devemos manter essas limitações em mente e construir sistemas seguros e éticos e sistemas eficazes. Isso inclui conhecer os pontos fracos e fortes da IA e ser aberto sobre como ela funciona e o que pode ou não alcançar.