Nota: questo articolo è stato scritto da Osmond Chia ed è apparso per la prima volta in The Straits Times il 12 marzo 2023. Abbiamo ripubblicato una versione troncata della storia.
La cattiva grammatica è stata a lungo un segno rivelatore che un messaggio o un’offerta di lavoro potrebbe essere una truffa. Ma gli esperti di sicurezza informatica ora affermano che quei giorni potrebbero essere finiti poiché i chatbot di intelligenza artificiale generativa (AI) come ChatGPT hanno aiutato i truffatori a creare messaggi in un linguaggio quasi perfetto. Gli esperti di sicurezza informatica affermano di aver osservato miglioramenti nel linguaggio utilizzato nelle truffe di phishing negli ultimi mesi, in coincidenza con l’ascesa di ChatGPT, e avvertono che gli utenti finali dovranno essere ancora più vigili per altri segni di una truffa.
I rischi associati a ChatGPT sono stati classificati come una minaccia emergente in un
La società britannica di sicurezza informatica Darktrace ha riferito a marzo che dall’inizio di ChatGPT rilascio, gli attacchi di posta elettronica hanno contenuto messaggi con una maggiore complessità linguistica, suggerendo che i criminali informatici potrebbero concentrarsi sulla creazione di truffe di ingegneria sociale più sofisticate.
ChatGPT è in grado di correggere l’inglese imperfetto e riscrivere blocchi di testo per pubblico specifico – in tono aziendale o per bambini. Ora alimenta il rinnovato Microsoft Bing (con versioni per dispositivi mobili), che ha superato i 100 milioni di utenti attivi a marzo ed è destinato a sfidare Google in una lotta per la torta dei motori di ricerca.
Mr Matt Oostveen, regionale vicepresidente e chief technology officer della società di gestione dei dati Pure Storage, ha notato che il testo utilizzato nelle truffe di phishing è diventato migliore negli ultimi sei mesi, con l’aumento dei casi di attacchi informatici gestiti dalla sua azienda. Non è in grado di quantificare il numero di casi che si ritiene siano stati aiutati dall’intelligenza artificiale poiché è ancora agli inizi.
Ha detto:”ChatGPT ha un modo educato, al capezzale del modo in cui scrive… Era immediatamente evidente che c’è stato un cambiamento nel linguaggio utilizzato nelle truffe di phishing.”Ha aggiunto:”È ancora piuttosto recente, ma negli ultimi sei mesi abbiamo visto tentativi più sofisticati iniziare a emergere ed è probabile che i truffatori stiano utilizzando questi strumenti”.
Il garbato e il calmo Il tono di chatbot come ChatGPT risulta simile a come le aziende potrebbero creare i loro messaggi, ha affermato Oostveen. Ciò potrebbe ingannare le persone che in precedenza si erano accorte di truffe che presentavano un linguaggio scadente e spesso aggressivo, ha aggiunto.
A dicembre, Check Point Software Technologies ha rilevato prove di criminali informatici sul Dark Web che utilizzano il chatbot per creare uno script python che potrebbe essere utilizzato in un attacco malware.
Sette organizzazioni di Singapore su 10 hanno segnalato un tentativo di attacco via e-mail nel 2022, in base agli intervistati intervistati da Proofpoint. Poco più della metà delle aziende locali con un programma di sensibilizzazione alla sicurezza forma l’intera forza lavoro sulle truffe e ancora meno conduce simulazioni di phishing per preparare il personale a potenziali attacchi, ha affermato Proofpoint. Loghi e marchi familiari sono stati sufficienti per convincere quattro intervistati su 10 che un’e-mail era sicura.
Ma ci sono ancora modi in cui le persone possono proteggersi dalle truffe generate dall’intelligenza artificiale, cercando allegati sospetti, intestazioni, mittenti e URL incorporati in un’e-mail, ha aggiunto in un rapporto separato. Gli esperti esortano il pubblico a verificare se l’e-mail di un mittente è autentica e incoraggiano le aziende a condurre esercitazioni sul ransomware e a collaborare con i consulenti per colmare le lacune nei loro sistemi.
Leggi Avanti: Riesci a individuare una truffa? Scopri quanto conosci le diverse varietà facendo il test di The Straits Times!