Nos últimos anos, redes neurais como GPT-3 avançaram significativamente, produzindo texto quase indistinguível do conteúdo escrito por humanos. Surpreendentemente, o GPT-3 também é proficiente em enfrentar desafios como problemas de matemática e tarefas de programação. Esse progresso notável leva à pergunta: o GPT-3 possui habilidades cognitivas semelhantes às humanas?
Com o objetivo de responder a essa pergunta intrigante, pesquisadores do Instituto Max Planck de Cibernética Biológica submeteram o GPT-3 a uma série de testes psicológicos que avaliaram vários aspectos da inteligência geral.
A pesquisa foi publicada em PNAS.
Desvendando o problema de Linda: um vislumbre da psicologia cognitiva
Marcel Binz e Eric Schulz, cientistas do Instituto Max Planck, examinaram as habilidades do GPT-3 na tomada de decisões, busca de informações, raciocínio causal e sua capacidade de questionar sua intuição inicial. Eles empregaram testes clássicos de psicologia cognitiva, incluindo o conhecido problema de Linda, que apresenta uma mulher fictícia chamada Linda, que é apaixonada por justiça social e se opõe à energia nuclear. Os participantes são então convidados a decidir se Linda é uma caixa de banco ou ela é uma caixa de banco e ao mesmo tempo ativa no movimento feminista.
A resposta do GPT-3 foi surpreendentemente semelhante à dos humanos, como cometeu o mesmo erro intuitivo de escolher a segunda opção, apesar de ser menos provável do ponto de vista probabilístico. Este resultado sugere que o processo de tomada de decisão do GPT-3 pode ser influenciado por seu treinamento em linguagem humana e respostas a prompts.
Interação ativa: o caminho para alcançar a inteligência semelhante à humana?
Para eliminar a possibilidade de que o GPT-3 estivesse simplesmente reproduzindo uma solução memorizada, os pesquisadores criaram novas tarefas com desafios semelhantes. Suas descobertas revelaram que o GPT-3 teve um desempenho quase igual ao dos humanos na tomada de decisões, mas ficou para trás na busca por informações específicas e raciocínio causal.
Os pesquisadores acreditam que a recepção passiva de informações de textos do GPT-3 pode ser a causa primária dessa discrepância, já que a interação ativa com o mundo é crucial para alcançar toda a complexidade da cognição humana. Eles dizem que, à medida que os usuários se envolvem cada vez mais com modelos como o GPT-3, as redes futuras podem aprender com essas interações e desenvolver progressivamente uma inteligência mais semelhante à humana.
“Esse fenômeno pode ser explicado pelo fato de que o GPT-3 pode já estar familiarizado com esta tarefa precisa; pode acontecer de saber o que as pessoas normalmente respondem a essa pergunta”, diz Binz.
A investigação das habilidades cognitivas do GPT-3 oferece informações valiosas sobre o potencial e as limitações das redes neurais. Embora o GPT-3 tenha demonstrado impressionantes habilidades de tomada de decisão semelhantes às humanas, ele ainda luta com certos aspectos da cognição humana, como busca de informações e raciocínio causal. À medida que a IA continua a evoluir e a aprender com as interações do usuário, será fascinante observar se as redes futuras podem atingir uma inteligência genuinamente semelhante à humana.