En los últimos años, las redes neuronales como GPT-3 han avanzado significativamente, produciendo texto que es casi indistinguible del contenido escrito por humanos. Sorprendentemente, GPT-3 también es competente para enfrentar desafíos como problemas matemáticos y tareas de programación. Este notable progreso lleva a la pregunta: ¿GPT-3 posee habilidades cognitivas similares a las humanas?
Con el objetivo de responder a esta intrigante pregunta, los investigadores del Instituto Max Planck de Cibernética Biológica sometieron a GPT-3 a una serie de pruebas psicológicas que evaluaron varios aspectos de la inteligencia general.
La investigación fue publicada en PNAS.
Resolviendo el problema de Linda: un vistazo a la psicología cognitiva
Marcel Binz y Eric Schulz, científicos del Instituto Max Planck, examinaron las habilidades de GPT-3 en la toma de decisiones, búsqueda de información, razonamiento causal y su capacidad para cuestionar su intuición inicial. Emplearon pruebas clásicas de psicología cognitiva, incluido el conocido problema de Linda, que presenta a una mujer ficticia llamada Linda, apasionada por la justicia social y opuesta a la energía nuclear. Luego se les pide a los participantes que decidan si Linda es cajera de banco, o es cajera de banco y al mismo tiempo activa en el movimiento feminista.
La respuesta de GPT-3 fue sorprendentemente similar a la de los humanos, ya que cometió el mismo error intuitivo de elegir la segunda opción, a pesar de ser menos probable desde un punto de vista probabilístico. Este resultado sugiere que el proceso de toma de decisiones de GPT-3 podría verse influenciado por su entrenamiento en el lenguaje humano y las respuestas a las indicaciones.
Interacción activa: ¿el camino para lograr una inteligencia similar a la humana?
Para eliminar la posibilidad de que GPT-3 simplemente reprodujera una solución memorizada, los investigadores diseñaron nuevas tareas con desafíos similares. Sus hallazgos revelaron que GPT-3 se desempeñó casi a la par que los humanos en la toma de decisiones, pero se retrasó en la búsqueda de información específica y razonamiento causal.
Los investigadores creen que la recepción pasiva de información de los textos de GPT-3 podría ser la causa principal de esta discrepancia, ya que la interacción activa con el mundo es crucial para lograr la complejidad total de la cognición humana. Dicen que a medida que los usuarios interactúan cada vez más con modelos como GPT-3, las redes futuras podrían aprender de estas interacciones y desarrollar progresivamente una inteligencia más similar a la humana.
“Este fenómeno podría explicarse por el hecho de que GPT-3 puede que ya esté familiarizado con esta tarea precisa; puede pasar a saber lo que la gente suele responder a esta pregunta”, dice Binz.
La investigación de las capacidades cognitivas de GPT-3 ofrece información valiosa sobre el potencial y las limitaciones de las redes neuronales. Si bien GPT-3 ha mostrado impresionantes habilidades de toma de decisiones similares a las humanas, todavía tiene problemas con ciertos aspectos de la cognición humana, como la búsqueda de información y el razonamiento causal. A medida que la IA continúa evolucionando y aprendiendo de las interacciones de los usuarios, será fascinante observar si las redes futuras pueden lograr una inteligencia genuinamente similar a la humana.