Ciberamenazas imitadoras de ChatGPT

Destaca el comunicado un crecimiento del 17 mil 818% en dominios maliciosos relacionados con registros de seguridad DNS, en este mismo periodo de tiempo.

De acuerdo con el seguimiento, entre noviembre de 2022 y principios de abril de 2023, se produjo un aumento del 910% en los registros mensuales de dominios relacionados con ChatGPT, según los investigadores de Unit 42, la Unidad de Investigación e Inteligencia de Amenazas de Palo Alto Networks.

Destaca el comunicado un crecimiento del 17 mil 818% en dominios maliciosos relacionados con registros de seguridad DNS, en este mismo periodo de tiempo.

Los analistas también descubrieron que era posible detectar hasta 118 intentos diarios de URL maliciosas relacionadas con ChatGPT, capturadas a partir del tráfico visto en el Sistema de Filtrado Avanzado de URL de Palo Alto Networks.

En palabras de Daniela Menéndez, Country Manager de Palo Alto Networks México: “Hemos detectado un número creciente de productos sospechosos que utilizan la API oficial de OpenAI para ChatGPT. Exhortamos a los usuarios mantenerse a la defensiva frente a riesgos de seguridad potenciales”.

Agrega que han observado varios casos de actores de ciberamenazas que registraban y utilizaban dominios fraudulentos en el ciberespacio teniendo “OpenAI” y “ChatGPT” como nombre de dominio (por ejemplo, openai.us, openai.xyz y chatgpt.jobs).

La mayoría de estos dominios no han alojado nada malicioso desde principios de abril de 2023, pero es preocupante que no estén controlados por OpenAI.

Unit 42 también estudió los keywords en el tráfico desde el Sistema de Filtrado Avanzado de URL. Por ello, identificó dos grandes picos de búsqueda con las palabras “ChatGPT y GPT-4”, el día en que OpenAI publicó la API oficial.

Así mismo, observaron varias URL de phishing que intentaban hacerse pasar por sitios web oficiales de OpenAI. Normalmente, los estafadores crean un sitio web falso que imita la apariencia del sitio web oficial de ChatGPT y luego engañan a los usuarios para que descarguen malware con un botón falso. Por ejemplo, un sitio web falso de ChatGPT intenta engañar a las víctimas para que faciliten su información confidencial, como datos de tarjetas de crédito y direcciones de correo electrónico.

Además, han detectado que aprovechan de la creciente popularidad de OpenAI para obtener criptomonedas.

Al ser un a de la aplicaciones más populares, ChatGPT,  ha dado pie a la aparición de más aplicaciones de chatbot imitadoras de IA. Algunas ofrecen sus propios modelos de lenguaje, y otras afirman que brindan servicios ChatGPT a través de la API pública anunciada el primero de marzo. Sin embargo, el uso de chatbots imitadores puede aumentar los riesgos de seguridad.

Salir de la versión móvil