งานวิจัยใหม่จากบริษัท AI ด้านความปลอดภัยในโลกไซเบอร์ Darktrace แสดงให้เห็นการโจมตีแบบวิศวกรรมสังคมเพิ่มขึ้น 135 เปอร์เซ็นต์โดยใช้เทคนิคทางภาษาศาสตร์ที่ซับซ้อน ซึ่งรวมถึงการเพิ่มขึ้น ปริมาณข้อความ เครื่องหมายวรรคตอน และความยาวประโยค และไม่มีลิงก์หรือไฟล์แนบ
แนวโน้มนี้ชี้ให้เห็นว่าเครื่องมือสร้าง AI เช่น ChatGPT ช่วยให้ผู้คุกคามสร้างการโจมตีที่ซับซ้อนและกำหนดเป้าหมายด้วยความเร็วและตามขนาด.
การศึกษาพนักงานกว่า 6,700 คนทั่วสหราชอาณาจักร สหรัฐอเมริกา ฝรั่งเศส เยอรมนี ออสเตรเลีย และเนเธอร์แลนด์ พบว่า 82 เปอร์เซ็นต์กังวลว่าแฮ็กเกอร์สามารถใช้ generative AI เพื่อสร้างอีเมลหลอกลวงที่แยกไม่ออกจากการสื่อสารที่แท้จริง.
นอกจากนี้ยังพบว่า 30 เปอร์เซ็นต์ของพนักงานทั่วโลกเคยตกเป็นเหยื่อของอีเมลหรือข้อความหลอกลวงในอดีต ลักษณะการสื่อสาร 3 อันดับแรกที่ทำให้พนักงานคิดว่าอีเมลเป็นการโจมตีแบบฟิชชิ่ง ได้แก่ การถูกเชิญให้คลิกลิงก์หรือเปิดไฟล์แนบ (68 เปอร์เซ็นต์) ผู้ส่งที่ไม่รู้จักหรือเนื้อหาที่ไม่คาดคิด (61 เปอร์เซ็นต์) และการใช้การสะกดและไวยากรณ์ที่ไม่ดี (61 เปอร์เซ็นต์)
ความถี่ของอีเมลและข้อความหลอกลวงที่เพิ่มขึ้นในช่วง 6 เดือนที่ผ่านมานั้นเพิ่มขึ้นถึง 70 เปอร์เซ็นต์ และ 79 เปอร์เซ็นต์ของตัวกรองสแปมของบริษัทก็หยุดไม่ให้อีเมลสำคัญที่ถูกต้องเข้าถึงอีเมลเหล่านั้นอย่างไม่ถูกต้อง กล่องจดหมายเข้า
นอกจากนี้ 87 เปอร์เซ็นต์กังวลเกี่ยวกับจำนวนข้อมูลส่วนบุคคลที่มีอยู่ทางออนไลน์ที่อาจนำไปใช้ในฟิชชิงและอีเมลหลอกลวงอื่นๆ
Max Heinemeyer หัวหน้าเจ้าหน้าที่ฝ่ายผลิตภัณฑ์ ที่ Darktrace กล่าวว่า:
ความปลอดภัยของอีเมลได้ท้าทายผู้ปกป้องทางไซเบอร์มาเกือบสามทศวรรษแล้ว ตั้งแต่เปิดตัว เครื่องมือสื่อสารเพิ่มเติมมากมายได้ถูกเพิ่มเข้ามาในวันทำงานของเรา แต่สำหรับอุตสาหกรรมและพนักงานส่วนใหญ่ อีเมลยังคงเป็นส่วนสำคัญของงานของทุกคน ด้วยเหตุนี้ จึงยังคงเป็นหนึ่งในเครื่องมือที่มีประโยชน์ที่สุดสำหรับผู้โจมตีที่ต้องการหลอกล่อเหยื่อให้เปิดเผยข้อมูลที่เป็นความลับผ่านการสื่อสารที่ใช้ประโยชน์จากความไว้วางใจ แบล็กเมล์ หรือสัญญาว่าจะให้รางวัลเพื่อให้ผู้คุกคามสามารถเข้าถึงหัวใจของระบบที่สำคัญได้ทุกวัน
ภาพรวมของภัยคุกคามทางอีเมลกำลังพัฒนา เป็นเวลากว่า 30 ปีแล้วที่ทีมรักษาความปลอดภัยได้ให้การฝึกอบรมพนักงานในการตรวจจับการสะกดผิด ลิงก์ที่น่าสงสัย และไฟล์แนบ แม้ว่าเราต้องการรักษากลยุทธ์เชิงลึกในการป้องกันอยู่เสมอ แต่ก็มีผลตอบแทนที่ลดน้อยลงในวิธีการมอบความไว้วางใจให้พนักงานในการตรวจจับอีเมลที่เป็นอันตราย ในยุคสมัยที่เทคโนโลยีที่พร้อมใช้งานช่วยให้สามารถสร้างอีเมลฟิชชิ่งที่น่าเชื่อถือ เป็นส่วนตัว แปลกใหม่ และซับซ้อนทางภาษาได้อย่างรวดเร็ว เรา
พบว่ามนุษย์ขาดความพร้อมในการตรวจสอบความถูกต้องของอีเมลที่”ไม่ดี”มากกว่าที่เคยเป็นมา เทคโนโลยีการป้องกันจำเป็นต้องก้าวให้ทันกับการเปลี่ยนแปลงในแนวภัยคุกคามทางอีเมล เราต้องติดอาวุธให้กับองค์กรด้วย AI ที่สามารถทำได้
คุณสามารถอ่านเพิ่มเติมได้ที่ ไซต์ Darktrace นอกจากนี้ บริษัทยังเปิดตัวการอัปเกรดเป็นผลิตภัณฑ์ป้องกันอีเมล Darktrace/Email เพื่อช่วยป้องกันความเสี่ยงที่เกิดจากการโจมตีที่สร้างโดย AI คุณสามารถค้นหาข้อมูลเกี่ยวกับสิ่งนั้นได้ที่นี่.
เครดิตรูปภาพ: tashatuvango/depositphotos.com