ไม่ใช่แค่คำพูดอีกต่อไป
OpenAI เปิดตัว GPT-4 ซึ่งเป็นรุ่นถัดไปที่ให้พื้นฐานทางเทคนิคสำหรับแชทบอท ChatGPT และ Bing AI ของ Microsoft. เป็นการอัปเกรดครั้งสำคัญที่เปิดทางไปสู่ความก้าวหน้าครั้งสำคัญในด้านความสามารถและฟีเจอร์ของ AI และก้าวไปอีกขั้นสู่การลืมมนุษยชาติ
OpenAI ประกาศการอัปเกรด GPT-4 ใหม่ในบล็อกและคุณสามารถลองใช้ได้แล้ว บน ChatGPT (จำกัดที่ 100 ข้อความทุก ๆ สี่ชั่วโมง) Microsoft ยืนยันว่าเครื่องมือแชท Bing เวอร์ชันล่าสุดใช้ GPT-4
มีการอัปเกรดที่สำคัญหลายอย่างในข้อเสนอ GPT-4 โดยเริ่มจากข้อเสนอที่ใหญ่ที่สุดและไม่ใช่แค่คำเท่านั้น
ตาม OpenAI, GPT-4 สามารถรับรูปภาพเป็นข้อมูลเข้าและสร้างป้ายกำกับ การจัดประเภท และการวิเคราะห์ ChatGPT และ Bing สามารถ”มองเห็น”โลกรอบๆ ตัวพวกเขา หรืออย่างน้อยก็ตีความผลลัพธ์ที่มองเห็นได้
หมายความว่าสามารถทำงานได้เหมือนกับแอป Be My Eyes ซึ่งเป็นเครื่องมือสำหรับผู้ที่มีความบกพร่องทางการมองเห็น Be My Eyes ใช้กล้องของสมาร์ทโฟนและอธิบายสิ่งที่มองเห็นด้วยภาพ
ในวิดีโอ GPT-4 ที่มุ่งเป้าไปที่นักพัฒนา Greg Brockman ประธานและผู้ร่วมก่อตั้ง OpenAI ได้แสดงให้เห็นว่า GPT-4 ตีความภาพร่างอย่างไร เปลี่ยนเป็นเว็บไซต์ จากนั้นให้รหัสสำหรับเว็บไซต์นั้น
GPT-4 สามารถประมวลผลข้อความได้มากกว่า 25,000 คำ เปิดใช้งานกรณีการใช้งาน เช่น การสร้างเนื้อหาขนาดยาว การสนทนาเพิ่มเติม และการค้นหาเอกสาร และการวิเคราะห์
OpenAI กล่าว”สามารถสร้าง แก้ไข และทำซ้ำงานเขียนเชิงสร้างสรรค์และเชิงเทคนิคกับผู้ใช้ เช่น การแต่งเพลง การเขียนบทภาพยนตร์ หรือเรียนรู้สไตล์การเขียนของผู้ใช้”
รูปแบบภาษาที่ดีไม่ได้มีความฉลาดโดยเนื้อแท้ โมเดล GPT-4 ควรเข้าใจความสัมพันธ์และบริบทได้ดียิ่งขึ้น ตัวอย่างเช่น ChatGPT ได้คะแนนเปอร์เซ็นไทล์ที่ 10 ในการสอบเนติบัณฑิต GPT-4 ได้คะแนนในเปอร์เซ็นไทล์ที่ 90 ในรายการที่เรียกว่า Biology Olympiad GPT-4 ที่อิงกับการมองเห็นได้คะแนนในเปอร์เซ็นไทล์ที่ 99 ในขณะที่ ChatGPT ทำคะแนนในเปอร์เซ็นไทล์ที่ 31