La inteligencia artificial (IA) evoluciona para alcanzar cada vez mayores niveles de autonomía. Es la característica principal de los agentes, modelos que no solo aportan respuestas a requerimientos, sino que son capaces de planificar y ejecutar tareas en nombre el usuario. Este potencial no podía escapar a los actores maliciosos, que utilizan esta capacidad “agéntica” para desarrollar campañas de ataques sofisticadas, masivas y de bajo coste. Anthropic, una empresa estadounidense de investigación y desarrollo de inteligencia artificial fundada por exmiembros de OpenAI (su director general es Dario Amodei), ha detectado lo que consideran “el primer caso documentado de un ataque cibernético a gran escala ejecutado sin intervención humana sustancial” y del que responsabiliza a un grupo “patrocinado por el Estado chino”, según un informe recién publicado.
El ataque, calificado como “sin precedentes”, fue advertido a mediados de septiembre. “Detectamos una actividad sospechosa que una investigación posterior determinó que era una campaña de espionaje altamente sofisticada. Los atacantes utilizaron las capacidades agénticas de la IA no solo como herramienta de asesoría, sino para ejecutar los ciberataques ellos mismos”.
El actor, que Anthropic identifica “con gran fiabilidad” como un grupo patrocinado por el Estado chino, actuó manipulando la plataforma de IA de esta compañía, Claude Code, “para intentar infiltrarse en una treintena de objetivos globales y tuvo éxito en un pequeño número de casos”. Los objetivos, como en la mayoría de los casos de estos ataques a gran escala, fueron grandes empresas tecnológicas, instituciones financieras, industrias químicas y agencias gubernamentales.
Tras la detección del ataque, Antrhopic abrió una investigación que se prolongó durante más de 10 días para evaluar el alcance del mismo, bloquear las cuentas de IA vulneradas y notificar tanto a las autoridades como a las entidades directamente afectadas.
Los atacantes utilizaron las altas capacidades de la IA para recabar contraseñas y datos, procesarlos y analizarlos en función del objetivo. “Ahora pueden buscar en la web, recuperar datos y realizar muchas otras acciones que antes eran dominio exclusivo de los operadores humanos”, explica Anthropic. Posteriormente, aprovecharon la función de codificación para que la propia IA elaborara los programas de espionaje y sabotaje.
El programa utilizado fue el propio de IA de la compañía, Claude, pese a que está dotado de salvaguardas para evitar su utilización maliciosa. “Está ampliamente entrenado para evitar comportamientos dañinos, pero lo engañaron mediante la división de ataques en tareas menores y aparentemente inofensivas para que no despertaran las sospechas de la plataforma y evitar la activación de los mecanismos de bloqueo. “Hicieron creer a Claude que [el iniciador de los procesos] era un empleado de una empresa legítima de ciberseguridad y que se estaba utilizando en pruebas defensivas”, explican los autores del informe de Anthropic.
La IA actuó de forma autónoma en más del 90% de los casos y la intervención humana se redujo a entre un 4% y un 6% de las decisiones críticas.
“Este ataque supone una escalada en la piratería, que hasta ahora ha precisado de una mayor proporción de intervención humana”, concluye Anthropic. La compañía resalta, no obstante, que igual que la IA ha servido para este ataque, también desarrolla herramientas más sofisticadas y eficaces para evitarlos.
En este sentido, Billy Leonard, jefe del grupo de inteligencia frente a amenazas de Google, destaca los intentos de uso de herramientas de IA legítimas y cómo las salvaguardas desarrolladas obliga a los atacantes a recurrir a modelos ilegales. “Aunque los adversarios [piratas] están intentando utilizar las plataformas de IA convencionales, las barreras de seguridad han llevado a muchos a recurrir a modelos disponibles en el mercado negro. Estas herramientas no tienen restricciones y pueden ofrecer una ventaja significativa a los menos avanzados”, explica en una nota.
Sobre este aspecto, la compañía de seguridad digital Kaspersky ha detectado novedosas y sofisticadas campañas de ciberataques que difunden modelos de lenguaje maliciosos para poner en riesgo la seguridad de los usuarios que recurren a ellos sin conocer su carácter.
La firma ha identificado un programa, denominado BrowserVenom, que se distribuye a través de un falso asistente de IA llamado DeepSneak. Este suplanta la identidad de DeepSeek-R1 y se promociona incluso mediante anuncios en Google. “El objetivo es engañar a los usuarios para instalar software malicioso que redirige su tráfico web a servidores controlados por los atacantes, permitiéndoles robar credenciales e información sensible”, advierte la compañía.
Los ciberdelincuentes se valen de sitios de phishing (engaño) y versiones manipuladas de instaladores legítimos como Ollama o LM Studio para camuflar el ataque, eludiendo incluso la protección de Windows Defender.
“Este tipo de amenazas evidencian cómo los modelos de lenguaje ejecutables de forma local, aunque útiles, también se han convertido en un nuevo vector de riesgo si no se descargan desde fuentes verificadas”, advierte Kaspersky.
En el informe del equipo de Leonard en Google se identifica el origen de los principales actores de las novedosas campañas en China, Corea del Norte, Rusia e Irán: “Están intentando utilizar la IA para todo, desde la ejecución de malware, las indicaciones de ingeniería social y la venta de herramientas de IA, hasta la mejora de todas las etapas de sus operaciones”.