โมเดลภาษาขนาดใหญ่ (LLM) เช่น GPT3, ChatGPT และ BARD เป็นที่นิยมในปัจจุบัน ทุกคนมีความเห็นว่าเครื่องมือเหล่านี้ดีหรือไม่ดีต่อสังคมอย่างไร และมีความหมายอย่างไรต่ออนาคตของ AI Google ได้รับสะเก็ดระเบิดจำนวนมากเนื่องจาก BARD รุ่นใหม่ได้รับคำถามที่ซับซ้อนผิด (เล็กน้อย) เมื่อถูกถามว่า “การค้นพบใหม่อะไรจากกล้องโทรทรรศน์อวกาศเจมส์ เว็บบ์ ที่ฉันสามารถเล่าให้ลูกวัย 9 ขวบฟังได้บ้าง” – แชทบอทให้คำตอบ 3 ข้อ โดย 2 ข้อถูกและ 1 ข้อผิด สิ่งที่ผิดคือภาพ”ดาวเคราะห์นอกระบบ”ภาพแรกถ่ายโดย JWST ซึ่งไม่ถูกต้อง โดยพื้นฐานแล้ว โมเดลมีข้อเท็จจริงที่ไม่ถูกต้องเก็บไว้ในฐานความรู้ เพื่อให้โมเดลภาษาขนาดใหญ่มีประสิทธิภาพ เราต้องการวิธีอัปเดตข้อเท็จจริงเหล่านี้หรือเพิ่มพูนข้อเท็จจริงด้วยความรู้ใหม่
ก่อนอื่นมาดูกันว่าข้อเท็จจริงถูกเก็บไว้ภายในโมเดลภาษาขนาดใหญ่ (LLM) อย่างไร โมเดลภาษาขนาดใหญ่ไม่เก็บข้อมูลและข้อเท็จจริงในความหมายแบบดั้งเดิม เช่น ฐานข้อมูลหรือไฟล์ แต่พวกเขากลับได้รับการฝึกอบรมเกี่ยวกับข้อมูลข้อความจำนวนมหาศาล และได้เรียนรู้รูปแบบและความสัมพันธ์ในข้อมูลนั้น ซึ่งช่วยให้พวกเขาสร้างการตอบคำถามได้เหมือนมนุษย์ แต่ไม่มีที่เก็บเฉพาะสำหรับข้อมูลที่เรียนรู้ เมื่อตอบคำถาม แบบจำลองจะใช้การฝึกอบรมเพื่อสร้างคำตอบตามข้อมูลที่ได้รับ ข้อมูลและความรู้ที่โมเดลภาษามีเป็นผลจากรูปแบบที่ได้เรียนรู้ในข้อมูลที่ได้รับการฝึกฝน ไม่ใช่ผลจากการถูกจัดเก็บไว้ในหน่วยความจำของโมเดลอย่างชัดเจน สถาปัตยกรรม Transformers ซึ่งใช้ LLMs ที่ทันสมัยส่วนใหญ่มีการเข้ารหัสข้อเท็จจริงภายในที่ใช้สำหรับตอบคำถามที่ถามในพร้อมท์
ดังนั้น หากข้อเท็จจริงในหน่วยความจำภายในของ LLM ไม่ถูกต้องหรือไม่อัปเดต จำเป็นต้องให้ข้อมูลใหม่ ผ่านทางพรอมต์ พรอมต์คือข้อความที่ส่งไปยัง LLM พร้อมคำถามและหลักฐานสนับสนุนซึ่งอาจเป็นข้อเท็จจริงใหม่หรือข้อเท็จจริงที่แก้ไขแล้ว นี่คือ 3 วิธีในการดำเนินการนี้
1. วิธีหนึ่งในการแก้ไขข้อเท็จจริงที่เข้ารหัสของ LLM คือการจัดเตรียมข้อเท็จจริงใหม่ที่เกี่ยวข้องกับบริบทโดยใช้ฐานความรู้ภายนอก ฐานความรู้นี้อาจเป็นการเรียก API เพื่อรับข้อมูลที่เกี่ยวข้องหรือการค้นหาในฐานข้อมูล SQL, No-SQL หรือ Vector ความรู้ขั้นสูงสามารถสกัดได้จากกราฟความรู้ที่เก็บเอนทิตีข้อมูลและความสัมพันธ์ระหว่างกัน ข้อมูลบริบทที่เกี่ยวข้องสามารถเรียกค้นและกำหนดเป็นข้อเท็จจริงเพิ่มเติมให้กับ LLM ได้ ทั้งนี้ขึ้นอยู่กับข้อมูลที่ผู้ใช้สอบถาม ข้อเท็จจริงเหล่านี้อาจจัดรูปแบบให้ดูเหมือนตัวอย่างการฝึกอบรมเพื่อปรับปรุงกระบวนการเรียนรู้ ตัวอย่างเช่น คุณอาจส่งคู่คำตอบสำหรับคำถามจำนวนมากให้กับโมเดลเพื่อเรียนรู้วิธีให้คำตอบ
2. วิธีที่สร้างสรรค์กว่า (และแพงกว่า) ในการขยาย LLM คือการปรับแต่งจริงโดยใช้ข้อมูลการฝึกอบรม ดังนั้น แทนที่จะสอบถามฐานความรู้เพื่อหาข้อเท็จจริงเฉพาะเพื่อเพิ่ม เราสร้างชุดข้อมูลการฝึกอบรมโดยการสุ่มตัวอย่างฐานความรู้ การใช้เทคนิคการเรียนรู้ภายใต้การดูแล เช่น การปรับแต่งอย่างละเอียด เราสามารถสร้าง LLM เวอร์ชันใหม่ที่ได้รับการฝึกฝนความรู้เพิ่มเติมนี้ กระบวนการนี้มักจะมีราคาแพงและอาจมีค่าใช้จ่ายไม่กี่พันดอลลาร์ในการสร้างและบำรุงรักษาโมเดลที่ปรับแต่งอย่างละเอียดใน OpenAI แน่นอน ค่าใช้จ่ายคาดว่าจะถูกลงเมื่อเวลาผ่านไป
3. อีกทางเลือกหนึ่งคือการใช้วิธีการต่างๆ เช่น Reinforcement Learning (RL) เพื่อฝึกอบรมตัวแทนด้วยคำติชมของมนุษย์ และเรียนรู้นโยบายเกี่ยวกับวิธีตอบคำถาม วิธีนี้มีประสิทธิภาพสูงในการสร้างแบบจำลองรอยเท้าขนาดเล็กที่ทำงานได้ดีในงานเฉพาะ ตัวอย่างเช่น ChatGPT อันโด่งดังที่เผยแพร่โดย OpenAI ได้รับการฝึกอบรมเกี่ยวกับการผสมผสานระหว่างการเรียนรู้ภายใต้การดูแลและ RL พร้อมความคิดเห็นจากมนุษย์
โดยสรุป นี่คือพื้นที่ที่มีการพัฒนาอย่างสูง โดยบริษัทยักษ์ใหญ่ทุกแห่งต้องการเข้าร่วมและแสดงความแตกต่าง เร็วๆ นี้ เราจะเห็นเครื่องมือ LLM หลักๆ ในพื้นที่ส่วนใหญ่ เช่น การค้าปลีก การดูแลสุขภาพ และการธนาคาร ที่สามารถตอบสนองในลักษณะที่เหมือนมนุษย์โดยเข้าใจถึงความแตกต่างของภาษา เครื่องมือที่ขับเคลื่อนด้วย LLM เหล่านี้ผสานรวมเข้ากับข้อมูลองค์กรสามารถเพิ่มความคล่องตัวในการเข้าถึงและทำให้ข้อมูลที่ถูกต้องพร้อมใช้งานสำหรับคนที่เหมาะสมในเวลาที่เหมาะสม