Una nuova ricerca dell’azienda di intelligenza artificiale per la sicurezza informatica Darktrace mostra un aumento del 135% degli attacchi di ingegneria sociale che utilizzano sofisticate tecniche linguistiche, tra cui un aumento volume del testo, punteggiatura e lunghezza della frase e senza collegamenti o allegati.

Questa tendenza suggerisce che gli strumenti di intelligenza artificiale generativa, come ChatGPT, stanno consentendo agli attori delle minacce di creare attacchi sofisticati e mirati in modo rapido e su larga scala.

Lo studio condotto su oltre 6.700 dipendenti nel Regno Unito, Stati Uniti, Francia, Germania, Australia e Paesi Bassi rileva che l’82% è preoccupato che gli hacker possano utilizzare l’IA generativa per creare e-mail fraudolente che sono indistinguibili da comunicazioni autentiche.

Rileva inoltre che il 30% dei dipendenti globali è caduto per un’e-mail o un messaggio fraudolento in passato. Le tre principali caratteristiche della comunicazione che fanno pensare ai dipendenti che un’e-mail sia un attacco di phishing sono: l’invito a fare clic su un collegamento o ad aprire un allegato (68%), un mittente sconosciuto o un contenuto inatteso (61%) e uno scarso uso dell’ortografia e della grammatica (61 percento).

Un aumento della frequenza di e-mail e SMS fraudolenti negli ultimi 6 mesi è stato notato del 70 percento e il 79 percento dei filtri antispam aziendali impedisce erroneamente a importanti e-mail legittime di arrivare ai propri posta in arrivo.

Inoltre, l’87% è preoccupato per la quantità di informazioni personali disponibili online che potrebbero essere utilizzate nel phishing e in altre truffe via e-mail.

Max Heinemeyer, chief product officer di Darktrace afferma:

La sicurezza della posta elettronica ha sfidato i difensori informatici per quasi tre decenni. Dalla sua introduzione, molti altri strumenti di comunicazione sono stati aggiunti alle nostre giornate lavorative, ma per la maggior parte dei settori e dei dipendenti, l’e-mail rimane una parte fondamentale del lavoro di tutti. In quanto tale, rimane uno degli strumenti più utili per gli aggressori che cercano di indurre le vittime a divulgare informazioni riservate attraverso comunicazioni che sfruttano la fiducia, i ricatti o promettono ricompense in modo che gli autori delle minacce possano arrivare al cuore dei sistemi critici, ogni singolo giorno.

Il panorama delle minacce e-mail si sta evolvendo. Per 30 anni i team di sicurezza hanno formato i dipendenti su come individuare errori di ortografia, collegamenti sospetti e allegati. Sebbene desideriamo sempre mantenere una strategia di difesa approfondita, ci sono ritorni crescenti e decrescenti nell’approccio di affidare ai dipendenti l’individuazione di e-mail dannose. In un’epoca in cui la tecnologia prontamente disponibile consente di creare rapidamente e-mail di phishing credibili, personalizzate, nuove e linguisticamente complesse,
troviamo gli esseri umani ancora più mal equipaggiati per verificare la legittimità delle e-mail”cattive”che mai. La tecnologia difensiva deve stare al passo con i cambiamenti nel panorama delle minacce e-mail, dobbiamo dotare le organizzazioni di AI in grado di farlo.

Puoi leggere di più su Sito Darktrace. L’azienda sta inoltre lanciando un aggiornamento del suo prodotto di protezione della posta elettronica, Darktrace/Email, per proteggersi dai rischi posti dagli attacchi generativi creati dall’IA. Puoi scoprirlo qui.

Credito immaginetashatuvango/depositphotos.com

By Kaitlynn Clay

Lavoro come esperto di UX. Mi interesso di web design e analisi del comportamento degli utenti. Nei giorni liberi visito sempre il museo d'arte.