เมื่อ Alphabet มองผ่านแชทบ็อตที่ช่วยลบมูลค่าตลาดมูลค่า 100 พันล้านดอลลาร์ (ประมาณ 8,29,000 ล้านรูปี) ความท้าทายอีกอย่างก็เกิดขึ้นจากความพยายามในการเพิ่มปัญญาประดิษฐ์เชิงสร้างสรรค์ให้กับ Google Search ยอดนิยม นั่นคือต้นทุน
ผู้บริหารในภาคส่วนเทคโนโลยีกำลังพูดถึงวิธีใช้งาน AI เช่น ChatGPT ในขณะที่มีค่าใช้จ่ายสูง แชตบอตยอดนิยมจาก OpenAI ซึ่งสามารถร่างร้อยแก้วและตอบคำถามค้นหาได้ มีค่าคอมพิวติ้งที่”ต้องตาต้องใจ”เพียงสองสามเซ็นต์ต่อการสนทนา แซม อัลท์แมน ประธานเจ้าหน้าที่บริหารของสตาร์ทอัพกล่าวบนทวิตเตอร์
ในการให้สัมภาษณ์ John Hennessy ประธานของ Alphabet กล่าวกับรอยเตอร์ว่าการแลกเปลี่ยนกับ AI ที่รู้จักกันในชื่อโมเดลภาษาขนาดใหญ่น่าจะมีราคาสูงกว่าการค้นหาคำหลักมาตรฐานถึง 10 เท่า แม้ว่าการปรับแต่งอย่างละเอียดจะช่วยลดค่าใช้จ่ายได้อย่างรวดเร็ว
แม้ว่าจะมีรายได้จากโฆษณาบนเครือข่ายการค้นหาบนแชทที่มีศักยภาพ แต่เทคโนโลยีนี้ก็สามารถแทรกซึมเข้าไปในบรรทัดล่างสุดของ Mountain View, Calif.-based Alphabet โดยมีค่าใช้จ่ายเพิ่มเติมหลายพันล้านดอลลาร์ นักวิเคราะห์กล่าว รายได้สุทธิเกือบ 60,000 ล้านดอลลาร์ (ประมาณ 49,750,000 ล้านรูปี) ในปี 2565
Morgan Stanley ประมาณว่าข้อความค้นหา 3.3 ล้านล้านรายการของ Google ในปีที่แล้วมีราคาประมาณ 1 ใน 5 ของทุกๆ ร้อยละ ซึ่งเป็นตัวเลข ที่จะเพิ่มขึ้นขึ้นอยู่กับจำนวนข้อความที่ AI ต้องสร้าง ตัวอย่างเช่น Google อาจเผชิญกับค่าใช้จ่ายที่เพิ่มขึ้น 6 พันล้านเหรียญสหรัฐ (ประมาณ 49,742 ล้านรูปี) ภายในปี 2567 หาก AI ที่มีลักษณะคล้าย ChatGPT จัดการกับข้อความค้นหาครึ่งหนึ่งที่ได้รับด้วยคำตอบ 50 คำ นักวิเคราะห์คาดการณ์ Google ไม่จำเป็นต้องใช้แชทบ็อตเพื่อจัดการกับการค้นหาการนำทางสำหรับไซต์ต่างๆ เช่น วิกิพีเดีย
ส่วนอื่นๆ ใช้วิธีเรียกเก็บเงินที่คล้ายกันด้วยวิธีที่ต่างกัน ตัวอย่างเช่น SemiAnalysis บริษัทวิจัยและที่ปรึกษาที่เน้นเทคโนโลยีชิปกล่าวว่าการเพิ่ม AI แบบ ChatGPT ในการค้นหาอาจทำให้ Alphabet มีราคา 3 พันล้านเหรียญ (ประมาณ 24,870 ล้านรูปี) ซึ่งเป็นจำนวนที่จำกัดโดยชิปภายในองค์กรของ Google ที่เรียกว่า Tensor Processing Units หรือ TPU พร้อมกับการเพิ่มประสิทธิภาพอื่นๆ
สิ่งที่ทำให้ AI รูปแบบนี้มีราคาสูงกว่าการค้นหาทั่วไปคือพลังการประมวลผลที่เกี่ยวข้อง นักวิเคราะห์กล่าวว่า AI ดังกล่าวขึ้นอยู่กับชิปหลายพันล้านดอลลาร์ ซึ่งเป็นต้นทุนที่ต้องกระจายออกไปตามอายุการใช้งานหลายปี ไฟฟ้ายังเพิ่มต้นทุนและแรงกดดันให้กับบริษัทที่มีเป้าหมายคาร์บอนฟุตพริ้นท์
กระบวนการจัดการข้อความค้นหาที่ขับเคลื่อนโดย AI เรียกว่า”การอนุมาน”ซึ่ง”โครงข่ายประสาทเทียม”สร้างแบบจำลองอย่างหลวมๆ จากสมองของมนุษย์ ชีววิทยาอนุมานคำตอบของคำถามจากการฝึกอบรมก่อนหน้า
ในทางตรงกันข้าม การค้นหาแบบเดิม โปรแกรมรวบรวมข้อมูลเว็บของ Google จะสแกนอินเทอร์เน็ตเพื่อรวบรวมดัชนีข้อมูล เมื่อผู้ใช้พิมพ์ข้อความค้นหา Google จะแสดงคำตอบที่เกี่ยวข้องที่สุดที่จัดเก็บไว้ในดัชนี
Hennessy จาก Alphabet กล่าวกับรอยเตอร์ว่า”คุณต้องลดค่าใช้จ่ายในการอนุมานลง”เรียกว่า”ปัญหาสองสามปีที่ แย่ที่สุด”
Alphabet กำลังเผชิญกับแรงกดดันให้รับความท้าทายแม้จะมีค่าใช้จ่ายก็ตาม เมื่อต้นเดือนที่ผ่านมา คู่แข่งอย่าง Microsoft ได้จัดงานสำคัญขึ้นที่สำนักงานใหญ่ Redmond, Washington เพื่อแสดงแผนการฝังเทคโนโลยีแชท AI ลงในเสิร์ชเอ็นจิ้น Bing โดยผู้บริหารระดับสูงมุ่งเป้าไปที่ส่วนแบ่งการตลาดการค้นหาของ Google ที่ 91 เปอร์เซ็นต์ โดยเว็บที่คล้ายกัน ประมาณการ
หนึ่งวันต่อมา Alphabet พูดถึงแผนการปรับปรุงเครื่องมือค้นหาของตน แต่วิดีโอโปรโมตสำหรับแชทบ็อต AI ของ Bard แสดงให้เห็นว่าระบบตอบคำถามไม่ถูกต้อง โดยปลุกระดมสไลด์สต็อกที่โกน $100 พันล้านออกจากระบบ มูลค่าตลาด
ภายหลัง Microsoft ได้ตรวจสอบข้อเท็จจริงของตนเองเมื่อมีรายงานว่า AI ทำการคุกคามหรือแสดงความรักต่อผู้ใช้ในการทดสอบ กระตุ้นให้บริษัทจำกัดเซสชันการแชทที่ยาวนาน โดยระบุว่า”ยั่วยุ”คำตอบที่ไม่ได้ตั้งใจ
Amy Hood ประธานเจ้าหน้าที่ฝ่ายการเงินของ Microsoft บอกกับนักวิเคราะห์ว่าข้อดีของการเพิ่มผู้ใช้และรายได้จากการโฆษณานั้นเกินดุลค่าใช้จ่ายเมื่อ Bing ใหม่เปิดตัวสู่ผู้บริโภคหลายล้านคน”นั่นคืออัตรากำไรขั้นต้นที่เพิ่มขึ้นสำหรับเรา แม้จะเป็นค่าใช้จ่ายในการให้บริการที่เรากำลังพูดถึง”เธอกล่าว
และคู่แข่งของ Google รายอื่น Richard Socher ซีอีโอของเครื่องมือค้นหา You.com กล่าวเสริม ประสบการณ์การแชทด้วย AI รวมถึงแอปพลิเคชันสำหรับแผนภูมิ วิดีโอ และเทคโนโลยีกำเนิดอื่น ๆ ทำให้ค่าใช้จ่ายเพิ่มขึ้นระหว่าง 30 เปอร์เซ็นต์ถึง 50 เปอร์เซ็นต์”เทคโนโลยีมีราคาถูกลงตามขนาดและเมื่อเวลาผ่านไป”เขากล่าว
แหล่งข่าวที่ใกล้ชิดกับ Google เตือนว่ายังเร็วไปที่จะระบุว่าแชทบอทอาจมีราคาเท่าใด เนื่องจากประสิทธิภาพและการใช้งานจะแตกต่างกันไปขึ้นอยู่กับเทคโนโลยีที่เกี่ยวข้อง และ AI ขับเคลื่อนผลิตภัณฑ์ต่างๆ เช่น การค้นหาอยู่แล้ว
ถึงกระนั้น การเรียกเก็บเงินก็เป็นหนึ่งในสองเหตุผลหลักว่าทำไมบริษัทค้นหาและโซเชียลมีเดียยักษ์ใหญ่ที่มีผู้ใช้หลายพันล้านคนไม่เปิดตัวแชทบ็อต AI ในชั่วข้ามคืน Paul Daugherty จาก Accenture กล่าว หัวหน้าเจ้าหน้าที่ฝ่ายเทคโนโลยี
“อย่างแรกคือความแม่นยำ และอย่างที่สองคือคุณต้องปรับขนาดให้ถูกวิธี”เขากล่าว
ทำให้คณิตศาสตร์เป็นจริง
strong>
เป็นเวลาหลายปีที่นักวิจัยของ Alphabet และที่อื่นๆ ได้ศึกษาวิธีฝึกและรันโมเดลภาษาขนาดใหญ่ในราคาถูกลง
โมเดลที่ใหญ่กว่าต้องการชิปจำนวนมากสำหรับการอนุมาน และทำให้ต้นทุนสูงขึ้น AI ที่ทำให้ผู้บริโภคตื่นตาเนื่องจากอำนาจที่เหมือนมนุษย์มีขนาดเพิ่มขึ้นถึง 1.75 แสนล้านพารามิเตอร์ หรือค่าต่างๆ ที่อัลกอริทึมคำนึงถึง สำหรับโมเดล OpenAI ที่อัปเดตเป็น ChatGPT ค่าใช้จ่ายยังแตกต่างกันไปตามความยาวของข้อความค้นหาของผู้ใช้ โดยวัดเป็น”โทเค็น”หรือชิ้นส่วนของคำ
ผู้บริหารระดับสูงด้านเทคโนโลยีรายหนึ่งบอกกับรอยเตอร์ว่า AI ดังกล่าวยังคงเป็นราคาที่ห้ามปรามเมื่ออยู่ในมือผู้บริโภคหลายล้านคน.
“โมเดลเหล่านี้มีราคาแพงมาก ดังนั้นการประดิษฐ์ในระดับต่อไปก็จะลดค่าใช้จ่ายในการฝึกอบรมโมเดลเหล่านี้และการอนุมาน เพื่อให้เราสามารถใช้มันได้ในทุกแอปพลิเคชัน”ผู้บริหารกล่าว ภายใต้เงื่อนไขของการไม่เปิดเผยชื่อ
สำหรับตอนนี้ นักวิทยาศาสตร์คอมพิวเตอร์ภายใน OpenAI ได้ค้นพบวิธีเพิ่มประสิทธิภาพต้นทุนการอนุมานผ่านโค้ดที่ซับซ้อนที่ทำให้ชิปทำงานได้อย่างมีประสิทธิภาพมากขึ้น ซึ่งเป็นบุคคลที่คุ้นเคยกับความพยายามดังกล่าว โฆษกของ OpenAI ไม่ได้แสดงความคิดเห็นในทันที
ปัญหาระยะยาวคือวิธีลดจำนวนพารามิเตอร์ในโมเดล AI 10 หรือ 100 เท่าโดยไม่สูญเสียความแม่นยำ
“วิธีที่คุณคัดแยก (ไม่ใช้พารามิเตอร์) อย่างมีประสิทธิภาพที่สุด นั่นยังคงเป็นคำถามที่เปิดอยู่”Naveen Rao ซึ่งเคยดูแลความพยายามด้านชิป AI ของ Intel Corp และตอนนี้ทำงานเพื่อลดต้นทุนการประมวลผล AI ผ่านสตาร์ทอัพ MosaicML
ใน ในระหว่างนี้ บางคนพิจารณาเรียกเก็บเงินสำหรับการเข้าถึง เช่น การสมัครรับข้อมูล 20 ดอลลาร์สหรัฐฯ (ประมาณ 1,660 รูปี) ต่อเดือนของ OpenAI เพื่อรับบริการ ChatGPT ที่ดีขึ้น ผู้เชี่ยวชาญด้านเทคโนโลยียังกล่าวอีกว่าการแก้ปัญหาคือการใช้โมเดล AI ที่มีขนาดเล็กลงกับงานที่เรียบง่าย ซึ่ง Alphabet กำลังสำรวจอยู่
บริษัทกล่าวในเดือนนี้ว่าเทคโนโลยี LaMDA AI ขนาดใหญ่ในเวอร์ชัน”โมเดลที่เล็กลง”จะขับเคลื่อนแชทบอท Bard ต้องการ”พลังการประมวลผลที่น้อยลงอย่างมาก ทำให้เราสามารถขยายขนาดไปยังผู้ใช้จำนวนมากขึ้นได้”
เมื่อถามเกี่ยวกับแชทบอท เช่น ChatGPT และ Bard เฮนเนสซี่กล่าวในการประชุมที่ชื่อว่า TechSurge เมื่อสัปดาห์ที่แล้วว่าโมเดลที่เน้นมากกว่าระบบเดียวกำลังทำอยู่ ทุกอย่างจะช่วย”ลดค่าใช้จ่าย”
© Thomson Reuters 2023
ลิงก์ Affiliate อาจถูกสร้างขึ้นโดยอัตโนมัติ-โปรดดูคำชี้แจงด้านจริยธรรมของเราสำหรับรายละเอียด
สำหรับรายละเอียดของการเปิดตัวและข่าวสารล่าสุด จาก Samsung, Xiaomi, Realme, OnePlus, Oppo และบริษัทอื่นๆ ที่งาน Mobile World Congress ในบาร์เซโลนา เยี่ยมชมฮับ MWC 2023 ของเรา