OpenAI reveló este martes que ha interrumpido la actividad de 40 redes que utilizaron indebidamente sus herramientas de inteligencia artificial, como ChatGPT, para ejecutar campañas fraudulentas, generar desinformación y monitorear redes sociales, en violación directa de sus términos de uso.

La compañía, con sede en San Francisco, explicó en un informe que estos abusos han sido cometidos por actores ubicados principalmente en países como Camboya, Corea del Sur, Rusia y China. Las operaciones incluían desde el desarrollo de malware hasta intentos de manipular la opinión pública a través de contenido automatizado en plataformas como YouTube y TikTok.

Uno de los casos identificados corresponde a una red en Corea del Sur que utilizó ChatGPT para desarrollar programas maliciosos y sistemas de comando y control. Otra red, operando desde Camboya, Birmania y Nigeria, intentó usar el chatbot para ejecutar campañas de estafa dirigidas a usuarios desprevenidos.

El informe también destaca el uso de estas tecnologías por parte de regímenes autoritarios, como China, para construir herramientas de vigilancia masiva en redes sociales. Además, se identificó la creación de contenidos engañosos con modelos de OpenAI, dirigidos a difundir información manipulada o sesgada a través de plataformas digitales.

Pese a estos abusos, OpenAI subrayó que el uso de ChatGPT para detectar fraudes es tres veces más frecuente que su utilización para cometerlos, lo que refleja el valor de la herramienta como apoyo en ciberseguridad y protección digital.

La firma reiteró su compromiso de construir una inteligencia artificial segura y responsable, que contribuya a resolver los grandes retos globales, y reafirmó su vigilancia activa para evitar el uso indebido de sus tecnologías.