Nota: Este artículo fue escrito por Osmond Chia y apareció por primera vez en The Straits Times el 12 de marzo 2023. Hemos vuelto a publicar una versión truncada de la historia.

La mala gramática ha sido durante mucho tiempo una señal reveladora de que es probable que un mensaje o una oferta de trabajo sea una estafa. Pero los expertos en seguridad cibernética ahora dicen que esos días pueden haber terminado ya que los chatbots de inteligencia artificial generativa (IA) como ChatGPT han ayudado a los estafadores a redactar mensajes en un lenguaje casi perfecto. Los expertos en seguridad cibernética dicen que han observado mejoras en el lenguaje utilizado en las estafas de phishing en los últimos meses, coincidiendo con el auge de ChatGPT, y advierten que los usuarios finales deberán estar aún más atentos a otros signos de estafa.

Los riesgos asociados con ChatGPT se clasificaron como una amenaza emergente en un informe de edición especial en marzo de la empresa de software de seguridad Norton, que dijo que los estafadores aprovecharán grandes modelos de lenguaje como ChatGPT. Si bien no son nuevas, las herramientas son más accesibles que antes y se pueden usar para crear contenido falso, lanzar campañas de phishing y codificar malware, escribió Norton.

La firma británica de seguridad cibernética Darktrace informó en marzo que desde que ChatGPT lanzamiento, los ataques de correo electrónico han contenido mensajes con una mayor complejidad lingüística, lo que sugiere que los ciberdelincuentes pueden estar dirigiendo su atención a la elaboración de estafas de ingeniería social más sofisticadas.

ChatGPT es capaz de corregir inglés imperfecto y reescribir bloques de texto para audiencias específicas – en tono corporativo, o para niños. Ahora impulsa el renovado Microsoft Bing (con versiones para dispositivos móviles), que superó los 100 millones de usuarios activos en marzo y está listo para desafiar a Google en una lucha por el pastel del motor de búsqueda.

Sr. Matt Oostveen, regional vicepresidente y director de tecnología de la empresa de gestión de datos Pure Storage, ha notado que el texto utilizado en las estafas de phishing se ha escrito mejor en los últimos seis meses, a medida que aumentan los casos de ataques cibernéticos manejados por su empresa. No puede cuantificar la cantidad de casos que se cree que son ayudados por AI, ya que aún es pronto.

Él dijo:”ChatGPT tiene una manera cortés, al lado de la cama, en la forma en que escribe… Fue inmediatamente evidente que hubo un cambio en el lenguaje utilizado en las estafas de phishing”. Agregó:”Todavía es bastante reciente, pero en los últimos seis meses, hemos visto que comienzan a surgir intentos más sofisticados, y es probable que los estafadores estén usando estas herramientas”.

El educado y tranquilo El tono de los chatbots como ChatGPT parece similar a cómo las corporaciones podrían redactar sus mensajes, dijo el Sr. Oostveen. Esto podría engañar a las personas que anteriormente se dieron cuenta de las estafas que presentaban un lenguaje pobre y a menudo agresivo, agregó.

En diciembre, Check Point Software Technologies encontró evidencia de ciberdelincuentes en la Dark Web usando el chatbot para crear un script de python que podría usarse en un ataque de malware.

Siete de cada 10 organizaciones de Singapur informaron un intento de ataque por correo electrónico en 2022, según los encuestados por Proofpoint. Un poco más de la mitad de las empresas locales con un programa de concientización sobre seguridad capacitan a toda su fuerza laboral sobre estafas, y aún menos realizan simulaciones de phishing para preparar al personal para posibles ataques, dijo Proofpoint. Los logotipos y la marca familiares fueron suficientes para convencer a cuatro de cada 10 encuestados de que un correo electrónico era seguro.

Pero todavía hay formas en que las personas pueden protegerse contra las estafas generadas por IA: buscando archivos adjuntos sospechosos, encabezados, remitentes y URL incrustados en un correo electrónico, agregó en un informe separado. Los expertos instan al público a verificar si el correo electrónico de un remitente es auténtico y alientan a las empresas a realizar simulacros de ransomware y trabajar con consultores para cerrar las brechas en sus sistemas.

Leer a continuación: ¿Puedes detectar una estafa? ¡Descubre qué tan bien conoces las diferentes variedades haciendo la prueba de The Straits Times!

By Maisy Hall

Trabajo como escritora independiente. También soy vegana y ecologista. Siempre que tengo tiempo, me centro en la meditación.