近年來,像 GPT-3 這樣的神經網絡取得了顯著進步,生成的文本與人類編寫的內容幾乎沒有區別。令人驚訝的是,GPT-3 也能熟練應對數學問題和編程任務等挑戰。這一顯著進展引出了一個問題:GPT-3 是否具有類人認知能力?

為了回答這個有趣的問題,馬克斯普朗克生物控制論研究所的研究人員對 GPT-3 進行了一系列評估一般智力各個方面的心理測試。

該研究發表在 PNAS.

解開琳達問題:認知心理學一瞥

馬克斯普朗克研究所的科學家 Marcel Binz 和 Eric Sc​​hulz 檢查了 GPT-3 在決策、信息搜索、因果推理方面的能力,以及它質疑其初始直覺的能力。他們採用了經典的認知心理學測試,包括著名的琳達問題,該問題介紹了一位名叫琳達的虛構女性,她熱衷於社會正義並反對核能。然後要求參與者決定 Linda 是銀行出納員,還是她是銀行出納員同時活躍於女權運動。

GPT-3 的反應與人類的反應驚人地相似,因為它犯了選擇第二個選項的同樣的直覺錯誤,儘管從概率的角度來看不太可能。這一結果表明,GPT-3 的決策過程可能會受到其對人類語言的訓練和對提示的反應的影響。

主動交互:實現類人智能的途徑?

為了消除 GPT-3 只是複制記憶解決方案的可能性,研究人員設計了具有類似挑戰的新任務。他們的研究結果表明,GPT-3 在決策方面的表現幾乎與人類相當,但在搜索特定信息和因果推理方面落後。

研究人員認為,GPT-3 從文本中被動接收信息可能是造成這種差異的主要原因,因為與世界的積極互動對於實現人類認知的全面複雜性至關重要。他們說,隨著用戶越來越多地使用 GPT-3 等模型,未來的網絡可以從這些交互中學習並逐步開發出更多類似人類的智能。

“這種現象可以用 GPT-3可能已經熟悉這個精確的任務;可能碰巧知道人們通常會回答這個問題,”Binz 說。

研究 GPT-3 的認知能力可以提供對神經網絡的潛力和局限性的寶貴見解。雖然 GPT-3 展示了令人印象深刻的類人決策能力,但它仍然在人類認知的某些方面掙扎,例如信息搜索和因果推理。隨著 AI 不斷發展並從用戶交互中學習,觀察未來網絡是否能夠獲得真正的類人智能將是一件很有趣的事情。

By Maisy Hall

我是一名自由作家。 我也是素食主義者和環保主義者。 每當我有時間時,我都會專注於冥想。