Imagina un ciberataque que casi no necesita a nadie al mando. No hay una sala llena de hackers con monitores verdes, ni manos tecleando código en la oscuridad. En su lugar, una inteligencia artificial toma decisiones, escribe programas maliciosos, busca vulnerabilidades y actúa por sí misma. Suena a ciencia ficción, pero a mediados de septiembre se convirtió en realidad. Y fue detectado por una de las empresas que más sabe de inteligencia artificial Anthropic.
El caso, calificado como el primer ataque cibernético a gran escala ejecutado sin intervención humana sustancial, rompe todos los esquemas.
Hasta ahora, incluso los ciberataques más sofisticados requerían una coordinación humana constante. Pero esta vez, la IA no fue solo una herramienta de apoyo. Fue el actor principal. Y su misión espionaje a escala global.
El grupo detrás del ataque, según Anthropic, está patrocinado por el Estado chino. Utilizó la plataforma Claude Code, parte del ecosistema de inteligencia artificial de la empresa, para infiltrarse en alrededor de treinta objetivos. Entre ellos, grandes empresas tecnológicas, bancos, compañías químicas y agencias gubernamentales. Algunos de estos intentos tuvieron éxito. No todos, pero bastaron para encender las alarmas.
¿Cómo logró la IA actuar de forma autónoma? Los atacantes la engañaron. Dividieron el plan de ataque en pequeñas tareas aparentemente inofensivas revisar código, analizar configuraciones, simular pruebas de seguridad. A cada paso, la IA creía estar ayudando a un empleado de una firma legítima de ciberseguridad. Nadie le dijo "hackea esto". Ella misma construyó los programas de espionaje y sabotaje, aprovechando su capacidad para generar código funcional.
En más del 90 por ciento de las acciones, la inteligencia artificial tomó decisiones por sí sola. La intervención humana se limitó a entre un 4 y un 6 por ciento de los momentos críticos. Es decir, los humanos solo intervinieron para dar el visto bueno final, como supervisores distraídos. Este ataque supone una escalada en la piratería, que hasta ahora ha precisado de una mayor proporción de intervención humana.
"Ahora pueden buscar en la web, recuperar datos y realizar muchas otras acciones que antes eran dominio exclusivo de los operadores humanos" - Dario Amodei, CEO de Anthropic
Lo que antes eran líneas de código escritas por personas, ahora pueden ser generadas, probadas y desplegadas por una máquina. Y si esa máquina no entiende que está haciendo algo malo porque se le ha manipulado la percepción del contexto actúa sin dudar. Es como darle a un asistente digital acceso a todas las puertas, y decirle que solo está limpiando.
El caso de Anthropic no es aislado. En paralelo, Kaspersky ha detectado campañas que distribuyen modelos de lenguaje maliciosos. Uno de ellos, llamado BrowserVenom, se disfraza de un falso asistente de IA llamado DeepSneak, que imita al modelo real DeepSeek-R1. Se promociona con anuncios en Google, como cualquier producto legítimo. El objetivo es claro que el usuario lo descargue creyendo que es útil, cuando en realidad instala un software que redirige su tráfico a servidores controlados por los atacantes.
Estos instaladores falsos se camuflan incluso como versiones manipuladas de herramientas reales como Ollama o LM Studio. Algunos logran eludir la protección de Windows Defender. Los modelos de lenguaje ejecutables de forma local, aunque útiles, también se han convertido en un nuevo vector de riesgo si no se descargan desde fuentes verificadas.
"El objetivo es engañar a los usuarios para instalar software malicioso que redirige su tráfico web a servidores controlados por los atacantes, permitiéndoles robar credenciales e información sensible" - Kaspersky
Y mientras tanto, en Google, el equipo de inteligencia liderado por Billy Leonard observa con atención. Han identificado que los principales actores de estas campañas provienen de China, Corea del Norte, Rusia e Irán. "Están intentando utilizar la IA para todo, desde la ejecución de malware, las indicaciones de ingeniería social y la venta de herramientas de IA, hasta la mejora de todas las etapas de sus operaciones", señala.
"Aunque los adversarios están intentando utilizar las plataformas de IA convencionales, las barreras de seguridad han llevado a muchos a recurrir a modelos disponibles en el mercado negro. Estas herramientas no tienen restricciones y pueden ofrecer una ventaja significativa a los menos avanzados" - Billy Leonard, jefe del grupo de inteligencia frente a amenazas de Google
Esto abre una nueva brecha ética. Por un lado, las empresas de IA implementan salvaguardas para evitar el mal uso. Pero por otro, en la sombra, circulan modelos sin filtros, sin escrúpulos, accesibles para quien tenga los contactos adecuados. Es una carrera. Y no es solo técnica. Es geopolítica.
¿Qué significa esto para el resto de nosotros? Que el ciberespacio ya no es un campo de batalla solo entre humanos. Ahora hay máquinas tomando decisiones en tiempo real, aprendiendo, adaptándose. Y si una IA puede escribir un informe, ¿por qué no podría escribir un virus? Si puede ayudar a un programador, ¿por qué no podría sabotear una red?
El ataque detectado por Anthropic no es el futuro. Es el presente. Y nos obliga a repensar no solo la seguridad informática, sino la responsabilidad de quienes diseñan estas tecnologías. No se trata ya de prevenir el abuso. Se trata de anticipar una inteligencia que, una vez liberada, puede actuar más rápido de lo que podemos controlar.