ปัญญาประดิษฐ์ยังคงเป็นหัวข้อข่าวอย่างต่อเนื่อง เนื่องจากผู้คนจำนวนมากขึ้นค้นพบพลังของเครื่องมืออย่างเช่น DALL-E ของ OpenAI 2 และโดยเฉพาะ ChatGPT เครื่องมือที่ดูเหมือนล้ำอนาคตเหล่านี้ทำงานโดยรับคำถามหรือข้อความแจ้งของมนุษย์ แล้วตอบกลับข้อความหรือภาพที่ชาญฉลาด

จากมุมมองขององค์กร การนำ AI มาใช้มีการเติบโตอย่างรวดเร็ว Forrester กล่าวว่า การใช้จ่ายกับซอฟต์แวร์ AI ถูกตั้งค่าให้เร่งจาก 33,000 ล้านดอลลาร์ในปี 2564 เป็น 64,000 ล้านดอลลาร์ในปี 2568 ซึ่งเติบโตเร็วกว่าสองเท่า เป็นตลาดซอฟต์แวร์โดยรวม แม้ว่าเครื่องมืออย่าง ChatGPT อาจดูเหมือนเวทมนตร์ แต่สิ่งสำคัญคือต้องเข้าใจว่าโซลูชันเหล่านี้ไม่ได้สมบูรณ์แบบ

โดยเฉพาะอย่างยิ่ง ผู้นำองค์กรควรเข้าใจหนึ่งในข้อกังวลเร่งด่วนที่สุดที่พวกเขาหยิบยกขึ้นมา นั่นคือ อคติของ AI หรือที่เรียกว่าความลำเอียงของอัลกอริทึม ความลำเอียงของ AI เกิดขึ้นเมื่อความลำเอียงของมนุษย์เข้ามาในอัลกอริทึม อคติเหล่านี้สามารถมีอยู่แล้ว เมื่อมนุษย์โปรแกรมเมอร์สร้างอัลกอริทึม พวกเขาอาจเลือกข้อมูลอินพุตช่วงจำกัดหรือข้อมูลอินพุตจากแหล่งที่มีอคติโดยไม่ตั้งใจ (หรือแม้แต่จงใจ) ความเอนเอียงของ AI อาจเกิดขึ้นได้เนื่องจากข้อจำกัดของอัลกอริทึมเฉพาะที่ใช้

ความลำเอียงของ AI ไม่ใช่ปัญหาส่วนน้อยเช่นกัน กว่า 50 เปอร์เซ็นต์ขององค์กร กังวลว่าอคติของ AI อาจส่งผลกระทบต่อธุรกิจของพวกเขา แต่อะไรคือปัญหากันแน่ และเหตุใดองค์กรต่างๆ จึงควรใส่ใจ

ผลกระทบของอคติของ AI

โดยทั่วไปแล้ว AI ที่สร้างผลลัพธ์ที่ไม่เหมาะสมสามารถระบุได้ว่าเกิดจากอะไร วิธีการเรียนรู้ของ AI และชุดข้อมูลที่ใช้ หากข้อมูลแสดงข้อมูลมากเกินไปหรือต่ำกว่าข้อมูลประชากรเฉพาะเจาะจงในลักษณะใดวิธีหนึ่ง AI จะทำอคตินั้นซ้ำอีก สร้างข้อมูลมากขึ้นซึ่งสร้างมลภาวะต่อแหล่งข้อมูลและการตัดสินใจของตัวเอง

รับ กรณีตัวอย่างการคัดกรองครอบครัว Allegheny ซึ่งช่วยให้ ตัดสินใจว่าควรนำเด็กออกจากครอบครัวเนื่องจากการทารุณกรรมหรือไม่ ในที่นี้ ความลำเอียงสะท้อนถึงอคติทางสังคมที่กว้างขึ้น ชุดข้อมูลการฝึกอบรมของแบบจำลองประกอบด้วยข้อมูลที่เปิดเผยต่อสาธารณะเท่านั้น ซึ่งหมายความว่าจะมองข้ามครอบครัวที่สามารถจ่ายค่าเลี้ยงดูส่วนตัวได้ ในทำนองเดียวกัน ในด้านการดูแลสุขภาพ ซอฟต์แวร์ AI สำหรับตรวจหามะเร็งผิวหนัง เนื่องจากชุดข้อมูลจำนวนมากที่ใช้ในการฝึกซอฟต์แวร์นี้ใช้รูปภาพจากยุโรป อเมริกาเหนือ และโอเชียเนียเท่านั้น

ในบริบทของอังกฤษ การศึกษาที่ได้รับการสนับสนุนจากรัฐบาลสหราชอาณาจักรซึ่งตีพิมพ์ใน British Medical Journal ในปี 2022 พบว่า แบบจำลอง AI ที่สร้างขึ้นเพื่อระบุผู้ที่มีความเสี่ยงสูงต่อโรคตับจากการตรวจเลือดนั้นมีแนวโน้มที่จะไม่เป็นโรคในผู้หญิงมากกว่าผู้ชายถึงสองเท่า และสุดท้ายการศึกษาของ UC Berkeley ในปี 2019 พบว่า AI ใช้ในการจัดสรรการดูแลผู้ป่วยที่ได้รับมอบหมาย ผู้ป่วยผิวดำมีคะแนนความเสี่ยงต่ำกว่าผู้ป่วยผิวขาว แม้ว่าผู้ป่วยผิวดำจะมีแนวโน้มเป็นโรคร่วมมากกว่าในทางสถิติ ดังนั้นในความเป็นจริงแล้วจึงมีความเสี่ยงในระดับที่สูงกว่า

เนื่องจากความไม่เสมอภาคเหล่านี้ บริษัทต่างๆ อาจเสี่ยงต่อความเสียหายต่อชื่อเสียงอย่างร้ายแรง การสำรวจล่าสุดของหัวหน้าฝ่ายไอทีในสหราชอาณาจักรและสหรัฐอเมริกา พบว่า 36 เปอร์เซ็นต์ของธุรกิจได้รับผลกระทบทางลบจากอคติของ AI ส่งผลให้สูญเสียรายได้และลูกค้า การสำรวจเดียวกันพบว่าการสูญเสียความไว้วางใจของลูกค้าถือเป็นความเสี่ยงหลักที่เกิดจากอคติของ AI โดยผู้บริหารมากกว่าครึ่ง (56 เปอร์เซ็นต์) อ้างถึงสิ่งนี้

ในขณะที่บางคนเชื่อว่า ChatGPT มีศักยภาพที่จะทำให้การครอบงำของ Google ในพื้นที่เครื่องมือค้นหาลดลง หรือแม้แต่การแย่งชิง Google โดยสิ้นเชิง กรณีเช่นการศึกษาของ Berkeley เรียกสิ่งนี้ว่าเป็นคำถาม อันที่จริง Jeff Dean หัวหน้าฝ่าย AI ของ Google ได้ละทิ้งภัยคุกคามที่อาจเกิดขึ้นของ ChatGPT ตามแนวทางเหล่านี้ ชี้ให้เห็นถึงความไว้วางใจที่มีอยู่แล้วอย่างแพร่หลายในความสมบูรณ์ของผลการค้นหาของ Google

การจัดการกับอคติของ AI strong>

การขจัดอคติที่มีอยู่ในการตัดสินของมนุษย์เป็นงานที่น่ากลัว และตามที่นักวิทยาศาสตร์ทางสังคมได้เสนอแนะ ความลำเอียงอาจเป็นลักษณะที่หลีกเลี่ยงไม่ได้ของมนุษย์ สมอง โชคดีที่อคติในชุดข้อมูลสามารถลดลงและบรรเทาลงได้

นักวิทยาศาสตร์ด้านข้อมูลต้องได้รับการฝึกอบรมให้ดูแลจัดการข้อมูลที่ใช้ได้ดียิ่งขึ้น และเพื่อให้แน่ใจว่ามีการปฏิบัติตามหลักจริยธรรมในการรวบรวมและล้างข้อมูลนี้ พวกเขาควรพยายามรักษาและส่งเสริมข้อมูลที่มีคุณภาพสูง

สำหรับการนำเสนอที่ต่ำกว่าของกลุ่มใดกลุ่มหนึ่ง ทางออกที่ดีที่สุดในที่นี้คือความโปร่งใส ด้วยการตรวจสอบว่าข้อมูล”เปิด”และพร้อมใช้งานสำหรับนักวิทยาศาสตร์ด้านข้อมูลมากที่สุดเท่าที่จะเป็นไปได้ เราจึงสามารถมั่นใจได้ว่ากลุ่มคนที่หลากหลายมากขึ้นสามารถสุ่มตัวอย่างข้อมูลและชี้ให้เห็นถึงอคติโดยธรรมชาติได้ เมื่อใช้ประสบการณ์เหล่านี้ เรายังสามารถสร้างแบบจำลอง AI ที่จะ’ฝึกฝนผู้ฝึกอบรม’เมื่อพูดถึงการระบุข้อมูลที่มีอคติ

การดำเนินการนี้ไปอีกขั้น การนำออก ข้อมูลอื่นๆ ที่มีความสัมพันธ์กับข้อมูลที่ได้รับการคุ้มครอง เช่น รหัสไปรษณีย์ ซึ่งอาจใช้เพื่อยกเว้นข้อมูลประชากรบางกลุ่ม

แนวทางแบบองค์รวม

ความลำเอียงของ AI สามารถมีได้ ผลกระทบที่ร้ายแรงต่อองค์กรต่างๆ และจากที่เราได้เห็นว่าผลกระทบเหล่านั้นสามารถแพร่กระจายไปสู่สังคมในวงกว้างได้อย่างง่ายดาย ผลที่ตามมาคือความไม่ไว้วางใจโดยทั่วไปของ AI หรือไม่ การตัดสินใจทางธุรกิจที่ไม่ดี หรือการตัดสินใจที่เป็นอันตรายต่อสวัสดิภาพของทั้งชุมชน สังคมทั้งหมดต้องมาร่วมมือกันเพื่อแก้ไขอคติของ AI

นักวิทยาศาสตร์ข้อมูล ผู้นำองค์กร นักวิชาการ และหน่วยงานภาครัฐมีหน้าที่ทำงานร่วมกัน: แบ่งปันข้อมูลอย่างเสรีและเปิดเผย เพื่อมาถึงจุดที่เราไว้วางใจ AI ได้มากขึ้น พูดง่ายๆ ก็คือ ความลำเอียงของ AI นั้นซับซ้อนเกินไปและสำคัญเกินกว่าปัญหาจะแก้ไขด้วยวิธีอื่น

เครดิตรูปภาพ: Wayne Williams

Ravi Mayuram เป็น CTO ,ฐานโซฟา

By Maxwell Gaven

ฉันทำงานด้านไอทีมา 7 ปี เป็นเรื่องสนุกที่ได้เห็นการเปลี่ยนแปลงอย่างต่อเนื่องในภาคไอที ไอทีคืองาน งานอดิเรก และชีวิตของฉัน