Neue Untersuchungen des KI-Unternehmens für Cybersicherheit Darktrace zeigen eine 135-prozentige Zunahme von Social-Engineering-Angriffen unter Verwendung ausgefeilter linguistischer Techniken, einschließlich einer Zunahme Textvolumen, Interpunktion und Satzlänge und ohne Links oder Anhänge.

Dieser Trend deutet darauf hin, dass generative KI-Tools wie ChatGPT es Angreifern ermöglichen, ausgeklügelte und gezielte Angriffe schnell und in großem Umfang zu erstellen.

Die Studie mit über 6.700 Mitarbeitern in Großbritannien, den USA, Frankreich, Deutschland, Australien und den Niederlanden ergab, dass 82 Prozent besorgt sind, dass Hacker generative KI verwenden können, um betrügerische E-Mails zu erstellen, die von echter Kommunikation nicht zu unterscheiden sind.

Es stellt auch fest, dass 30 Prozent der Mitarbeiter weltweit in der Vergangenheit auf eine betrügerische E-Mail oder SMS hereingefallen sind. Die drei häufigsten Kommunikationsmerkmale, die Mitarbeiter dazu veranlassen, eine E-Mail für einen Phishing-Angriff zu halten, sind: Aufforderung, auf einen Link zu klicken oder einen Anhang zu öffnen (68 Prozent), ein unbekannter Absender oder unerwarteter Inhalt (61 Prozent) und ein schlechter Gebrauch von Rechtschreibung und Grammatik (61 Prozent).

Eine Zunahme der Häufigkeit von betrügerischen E-Mails und Texten in den letzten 6 Monaten wurde von 70 Prozent festgestellt, und 79 Prozent der Spam-Filter von Unternehmen verhindern fälschlicherweise, dass wichtige legitime E-Mails bei ihnen ankommen Posteingang.

Darüber hinaus sind 87 Prozent besorgt über die Menge an persönlichen Informationen, die online über sie verfügbar sind und für Phishing und andere E-Mail-Betrügereien verwendet werden könnten.

Max Heinemeyer, Chief Product Officer bei Darktrace sagt:

E-Mail-Sicherheit fordert Cyber-Verteidiger seit fast drei Jahrzehnten heraus. Seit seiner Einführung wurden viele zusätzliche Kommunikationstools zu unseren Arbeitstagen hinzugefügt, aber für die meisten Branchen und Mitarbeiter bleibt E-Mail ein fester Bestandteil der Arbeit aller. Als solches bleibt es eines der nützlichsten Werkzeuge für Angreifer, die versuchen, Opfer dazu zu verleiten, vertrauliche Informationen durch Kommunikation preiszugeben, die Vertrauen ausnutzt, erpresst oder Belohnungen verspricht, damit Angreifer jeden Tag in den Kern kritischer Systeme vordringen können.

Die Landschaft der E-Mail-Bedrohungen entwickelt sich weiter. Seit 30 Jahren schulen Sicherheitsteams Mitarbeiter darin, Rechtschreibfehler, verdächtige Links und Anhänge zu erkennen. Während wir immer eine Defense-in-Depth-Strategie beibehalten möchten, bringt es immer weniger Vorteile, wenn wir Mitarbeiter mit der Erkennung bösartiger E-Mails betrauen. In einer Zeit, in der leicht verfügbare Technologien es ermöglichen, schnell glaubwürdige, personalisierte, neuartige und sprachlich komplexe Phishing-E-Mails zu erstellen, stellen wir fest, dass Menschen noch schlechter gerüstet sind, um die Legitimität „bösartiger“ E-Mails zu überprüfen als je zuvor. Verteidigungstechnologie muss mit den Veränderungen in der E-Mail-Bedrohungslandschaft Schritt halten, wir müssen Organisationen mit KI ausstatten, die dazu in der Lage ist.

Weitere Informationen finden Sie im Darktrace-Website. Das Unternehmen bringt außerdem ein Upgrade seines E-Mail-Schutzprodukts Darktrace/Email auf den Markt, um sich vor den Risiken zu schützen, die von Angriffen durch generative KI ausgehen. Mehr darüber erfahren Sie hier.

Bildnachweistashatuvango/depositphotos.com

By Henry Taylor

Ich arbeite als Backend-Entwickler. Einige von Ihnen haben mich vielleicht auf der Entwicklerkonferenz gesehen. In letzter Zeit arbeite ich an einem Open-Source-Projekt.