ในช่วงไม่กี่ปีที่ผ่านมา โครงข่ายประสาทเทียมอย่าง GPT-3 ได้พัฒนาไปอย่างมาก โดยสร้างข้อความที่แทบจะแยกไม่ออกจากเนื้อหาที่มนุษย์เขียนขึ้น น่าแปลกที่ GPT-3 ยังเชี่ยวชาญในการจัดการกับความท้าทายต่างๆ เช่น โจทย์คณิตศาสตร์และงานเขียนโปรแกรม ความก้าวหน้าอันน่าทึ่งนี้นำไปสู่คำถาม: GPT-3 มีความสามารถในการคิดเหมือนมนุษย์หรือไม่

เพื่อตอบคำถามที่น่าสนใจนี้ นักวิจัยจากสถาบันมักซ์พลังค์สำหรับไซเบอร์เนติกส์ชีวภาพได้ทดลอง GPT-3 ในชุดของ แบบทดสอบทางจิตวิทยาที่ประเมินด้านต่างๆ ของสติปัญญาทั่วไป

งานวิจัยนี้เผยแพร่ใน PNAS.

ไขปัญหาลินดา: ภาพรวมของจิตวิทยาการรับรู้

Marcel Binz และ Eric Schulz นักวิทยาศาสตร์จาก Max Planck Institute ได้ตรวจสอบความสามารถของ GPT-3 ในการตัดสินใจ การค้นหาข้อมูล การใช้เหตุผล และความสามารถในการตั้งคำถามต่อสัญชาตญาณเริ่มต้น พวกเขาใช้แบบทดสอบจิตวิทยาความรู้ความเข้าใจแบบคลาสสิก รวมถึงปัญหาลินดาที่รู้จักกันดี ซึ่งแนะนำผู้หญิงสวมบทบาทชื่อลินดา ผู้หลงใหลความยุติธรรมในสังคมและต่อต้านพลังงานนิวเคลียร์ ผู้เข้าร่วมจะถูกขอให้ตัดสินใจว่าลินดาเป็นพนักงานธนาคาร หรือเธอเป็นพนักงานธนาคาร และในขณะเดียวกันก็มีส่วนร่วมในการเคลื่อนไหวของสตรีนิยม

การตอบสนองของ GPT-3 นั้นคล้ายคลึงกับของมนุษย์อย่างมาก เช่น มันทำให้เกิดข้อผิดพลาดโดยสัญชาตญาณเช่นเดียวกันกับการเลือกตัวเลือกที่สอง แม้ว่าจะมีโอกาสน้อยกว่าจากมุมมองของความน่าจะเป็นก็ตาม ผลลัพธ์นี้ชี้ให้เห็นว่ากระบวนการตัดสินใจของ GPT-3 อาจได้รับอิทธิพลจากการฝึกอบรมเกี่ยวกับภาษามนุษย์และการตอบสนองต่อข้อความแจ้ง

การโต้ตอบที่กระตือรือร้น: เส้นทางสู่ความฉลาดที่เหมือนมนุษย์?

เพื่อขจัดความเป็นไปได้ที่ GPT-3 จะสร้างโซลูชันที่จดจำได้ นักวิจัยจึงสร้างงานใหม่ที่มีความท้าทายคล้ายกัน การค้นพบของพวกเขาเผยให้เห็นว่า GPT-3 ดำเนินการเกือบจะเทียบเท่ากับมนุษย์ในการตัดสินใจ แต่ล่าช้าในการค้นหาข้อมูลเฉพาะและเหตุผลเชิงสาเหตุ

นักวิจัยเชื่อว่าการรับข้อมูลจากข้อความแบบพาสซีฟของ GPT-3 อาจ สาเหตุหลักของความคลาดเคลื่อนนี้ เนื่องจากการโต้ตอบอย่างแข็งขันกับโลกเป็นสิ่งสำคัญสำหรับการบรรลุความซับซ้อนเต็มรูปแบบของความรู้ความเข้าใจของมนุษย์ พวกเขากล่าวว่าเมื่อผู้ใช้มีส่วนร่วมกับโมเดลเช่น GPT-3 มากขึ้น เครือข่ายในอนาคตสามารถเรียนรู้จากการโต้ตอบเหล่านี้และพัฒนาความฉลาดที่เหมือนมนุษย์มากขึ้นเรื่อย ๆ

“ปรากฏการณ์นี้สามารถอธิบายได้ด้วยข้อเท็จจริงที่ว่า GPT-3 อาจคุ้นเคยกับงานละเอียดนี้อยู่แล้ว อาจบังเอิญรู้ว่าคนทั่วไปตอบคำถามนี้อย่างไร” Binz กล่าว

การตรวจสอบความสามารถทางปัญญาของ GPT-3 นำเสนอข้อมูลเชิงลึกอันมีค่าเกี่ยวกับศักยภาพและข้อจำกัดของโครงข่ายประสาทเทียม แม้ว่า GPT-3 ได้แสดงทักษะการตัดสินใจที่เหมือนมนุษย์อย่างน่าประทับใจ แต่ก็ยังมีปัญหากับการรับรู้ของมนุษย์ในบางแง่มุม เช่น การค้นหาข้อมูลและการใช้เหตุผล ในขณะที่ AI พัฒนาอย่างต่อเนื่องและเรียนรู้จากการโต้ตอบของผู้ใช้ การสังเกตว่าเครือข่ายในอนาคตจะมีความฉลาดเหมือนมนุษย์อย่างแท้จริงหรือไม่

By Henry Taylor

ฉันทำงานเป็นนักพัฒนาส่วนหลัง พวกคุณบางคนอาจเคยเห็นฉันที่การประชุมนักพัฒนาซอฟต์แวร์ เมื่อเร็ว ๆ นี้ฉันได้ทำงานในโครงการโอเพ่นซอร์ส