Noticias

Ciberataques y el modelo de lenguaje natural GPT-3

El estudio demuestra que los ciberatacantes no solo pueden generar variaciones únicas de un mismo señuelo con un texto escrito gramaticalmente correcto y similar al humano, sino que también pueden construir cadenas de correo electrónico completas para ser más convincentes.

Se estudia cómo los ciberatacantes pueden usar el modelo de lenguaje natural GPT-3 para lanzar campañas de phishing y correo electrónico comercial más efectivas y más difíciles de detectar.

Un grupo de investigadores de seguridad de WithSecure ha mostrado cómo el lenguaje natural GPT-3, en el que se basa la inteligencia artificial (IA) tan popular estos días ChatGPT, se puede usar para hacer que los ciberataques de ingeniería social, como phishing o estafas de compromiso de correo electrónico (BEC; de sus siglas inglesas), sean más difíciles de detectar. 

El estudio demuestra que los ciberatacantes no solo pueden generar variaciones únicas de un mismo señuelo con un texto escrito gramaticalmente correcto y similar al humano, sino que también pueden construir cadenas de correo electrónico completas para ser más convincentes. E incluso pueden generar mensajes utilizando el estilo de escritura de personas reales en función de muestras proporcionadas de sus comunicaciones.

El texto en cuestión dice: “La generación de texto versátil en lenguaje natural interesará a los ciberdelincuentes. Del mismo modo, cualquier persona que use Internet para difundir estafas, noticias falsas u otro tipo de información errónea puede estar interesada en esta herramienta, que funciona a velocidades sobrehumanas”.

Mostrar más

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Publicaciones relacionadas

Botón volver arriba