Se estudia cómo los ciberatacantes pueden usar el modelo de lenguaje natural GPT-3 para lanzar campañas de phishing y correo electrónico comercial más efectivas y más difíciles de detectar.
Un grupo de investigadores de seguridad de WithSecure ha mostrado cómo el lenguaje natural GPT-3, en el que se basa la inteligencia artificial (IA) tan popular estos días ChatGPT, se puede usar para hacer que los ciberataques de ingeniería social, como phishing o estafas de compromiso de correo electrónico (BEC; de sus siglas inglesas), sean más difíciles de detectar.
El estudio demuestra que los ciberatacantes no solo pueden generar variaciones únicas de un mismo señuelo con un texto escrito gramaticalmente correcto y similar al humano, sino que también pueden construir cadenas de correo electrónico completas para ser más convincentes. E incluso pueden generar mensajes utilizando el estilo de escritura de personas reales en función de muestras proporcionadas de sus comunicaciones.
El texto en cuestión dice: “La generación de texto versátil en lenguaje natural interesará a los ciberdelincuentes. Del mismo modo, cualquier persona que use Internet para difundir estafas, noticias falsas u otro tipo de información errónea puede estar interesada en esta herramienta, que funciona a velocidades sobrehumanas”.