Negli ultimi anni, le reti neurali come GPT-3 sono progredite in modo significativo, producendo testi quasi indistinguibili dai contenuti scritti dall’uomo. Sorprendentemente, GPT-3 è anche abile nell’affrontare sfide come problemi di matematica e attività di programmazione. Questo notevole progresso porta alla domanda: GPT-3 possiede abilità cognitive simili a quelle umane?

Per rispondere a questa intrigante domanda, i ricercatori del Max Planck Institute for Biological Cybernetics hanno sottoposto GPT-3 a una serie di test psicologici che hanno valutato vari aspetti dell’intelligenza generale.

La ricerca è stata pubblicata su PNAS.

Svelare il problema di Linda: uno sguardo alla psicologia cognitiva

Marcel Binz ed Eric Schulz, scienziati del Max Planck Institute, hanno esaminato le capacità di GPT-3 nel processo decisionale, nella ricerca di informazioni, nel ragionamento causale e nella sua capacità di mettere in discussione la sua intuizione iniziale. Hanno utilizzato i classici test di psicologia cognitiva, incluso il noto problema di Linda, che introduce una donna immaginaria di nome Linda, appassionata di giustizia sociale e contraria all’energia nucleare. Ai partecipanti viene quindi chiesto di decidere se Linda è una cassiera di banca o se è una cassiera di banca e allo stesso tempo attiva nel movimento femminista.

La risposta di GPT-3 è stata sorprendentemente simile a quella degli esseri umani, poiché ha commesso lo stesso errore intuitivo di scegliere la seconda opzione, nonostante fosse meno probabile da un punto di vista probabilistico. Questo risultato suggerisce che il processo decisionale di GPT-3 potrebbe essere influenzato dalla sua formazione sul linguaggio umano e dalle risposte ai suggerimenti.

Interazione attiva: il percorso per raggiungere un’intelligenza simile a quella umana?

Per eliminare la possibilità che GPT-3 stesse semplicemente riproducendo una soluzione memorizzata, i ricercatori hanno creato nuovi compiti con sfide simili. Le loro scoperte hanno rivelato che GPT-3 si è comportato quasi alla pari con gli esseri umani nel processo decisionale, ma è rimasto indietro nella ricerca di informazioni specifiche e nel ragionamento causale.

I ricercatori ritengono che la ricezione passiva di informazioni dai testi da parte di GPT-3 potrebbe essere la causa principale di questa discrepanza, poiché l’interazione attiva con il mondo è cruciale per raggiungere la piena complessità della cognizione umana. Dicono che man mano che gli utenti interagiscono sempre più con modelli come GPT-3, le reti future potrebbero imparare da queste interazioni e sviluppare progressivamente un’intelligenza più simile a quella umana.

“Questo fenomeno potrebbe essere spiegato dal fatto che GPT-3 potrebbe già avere familiarità con questo preciso compito; può succedere di sapere cosa rispondono in genere le persone a questa domanda”, afferma Binz.

Lo studio delle capacità cognitive di GPT-3 offre preziose informazioni sul potenziale e sui limiti delle reti neurali. Sebbene GPT-3 abbia messo in mostra capacità decisionali simili a quelle umane, lotta ancora con alcuni aspetti della cognizione umana, come la ricerca di informazioni e il ragionamento causale. Man mano che l’intelligenza artificiale continua a evolversi e ad apprendere dalle interazioni degli utenti, sarà affascinante osservare se le reti del futuro potranno raggiungere un’intelligenza genuina simile a quella umana.

By Maxwell Gaven

Lavoro nel settore IT da 7 anni. È divertente osservare i continui cambiamenti nel settore IT. L'IT è il mio lavoro, il mio hobby e la mia vita.