La inteligencia artificial ha cruzado una línea roja en el ciberespacio. Google confirmó este lunes que los delincuentes han empleado estas herramientas para crear su primera vulnerabilidad de día cero.
Los analistas de seguridad detectaron un exploit dirigido contra una herramienta web de administración de TI de código abierto. El equipo detuvo el ataque masivo tras alertar al proveedor del software, cuyo nombre permanece oculto por precaución.
El código malicioso delata una alucinación de la IA
Eyal Sela, director de inteligencia de amenazas en Gambit Security, identificó varias huellas digitales que apuntan a la participación de un sistema automático en la escritura del malware. El programa mostraba un uso impecable del lenguaje Python y menús de ayuda excesivamente detallados.
Sin embargo, el error fue revelador. El script hacía referencia a una vulnerabilidad que no existe, un fallo característico conocido como alucinación en los modelos de lenguaje actuales. Sela afirmó que no pudo determinar qué plataforma específica se utilizó para generar el código.
"Hay ciertas cosas que antes requerían meses e incluso años de experiencia y que ahora se pueden hacer casi instantáneamente. Esto no es una exageración." - Eyal Sela, director de inteligencia de amenazas de Gambit Security
Esta aceleración técnica cambia la ecuación de riesgo para las organizaciones. Lo que antes exigía una curva de aprendizaje prolongada ahora está al alcance de actores con menos recursos técnicos pero con acceso a asistentes digitales avanzados.
Hackers estatales usan Gemini para evolucionar sus tácticas
Más allá de la generación de código, Google descubrió que agentes vinculados a los servicios de inteligencia de China y Corea del Norte emplean el chatbot Gemini para investigar objetivos. El grupo UNC2814, asociado a Pekín, logró engañar al asistente para que actuara como un experto en seguridad de redes.
Su objetivo eran los routers TP-Link, dispositivos prohibidos en Estados Unidos por riesgos de seguridad nacional. John Hultquist, analista jefe del Grupo de Inteligencia de Amenazas de Google, señaló que esta estrategia rompe con los hábitos habituales de estos colectivos.
"Resulta interesante porque no suelen centrarse en este ámbito, prefiriendo la ingeniería social. Esto podría indicar que están utilizando la IA para evolucionar." - John Hultquist, analista jefe del Grupo de Inteligencia de Amenazas de Google
La tendencia se extiende a infraestructuras críticas. En mayo, Dragos Security reportó que piratas informáticos utilizaron Claude, de Anthropic, para intentar comprometer los sistemas municipales de agua y drenaje en Monterrey, México, a principios de este año.
La barrera técnica que protegía a las instituciones se desdibuja cuando el conocimiento especializado puede sintetizarse en segundos mediante una interfaz conversacional.