Google frena un ataque con IA para saltar la doble verificación en una herramienta de administración

Google frustró un ciberataque que usaba IA para explotar una vulnerabilidad crítica y eludir la autenticación de doble factor. La compañía alertó al fabricante y a las fuerzas de seguridad antes de que hubiera daños.

13 de mayo de 2026 a las 08:00h
Google frena un ataque con IA para saltar la doble verificación en una herramienta de administración
Google frena un ataque con IA para saltar la doble verificación en una herramienta de administración

Google frustró hace unas semanas un ataque cibernético que utilizaba inteligencia artificial para explotar una vulnerabilidad crítica. El objetivo era eludir la autenticación de doble factor en una herramienta de administración de sistemas.

La IA facilita la explotación de fallos zero day

Los analistas de seguridad advierten que este incidente no es un caso aislado, sino la punta del iceberg. John Hultquist, analista jefe del equipo de inteligencia de amenazas de Google, declaró: "Por cada zero day que podemos rastrear hasta la IA, probablemente haya muchos más ya liberados".

La compañía notificó el incidente a la empresa propietaria del software afectado y a las fuerzas de seguridad. La intervención fue rápida y logró interrumpir la operación antes de que se produjeran daños reales en los sistemas comprometidos.

No se ha identificado vinculación gubernamental directa en este ataque concreto. Sin embargo, Google señaló que grupos asociados a China y Corea del Norte ya investigan técnicas similares para potenciar sus operaciones ofensivas.

El uso de modelos de lenguaje para identificar y explotar brechas de seguridad representa un cambio táctico significativo. Los criminales buscan automatizar la detección de fallos que antes requerían una revisión manual exhaustiva por parte de expertos humanos.

Las grandes tecnológicas restringen el acceso a modelos de hacking

La industria responde limitando la disponibilidad de estas herramientas. Hace aproximadamente un mes, Anthropic anunció el modelo Mythos, descrito como sorprendentemente capaz en tareas de ciberseguridad, y restringió su acceso a un grupo selecto de organizaciones de confianza.

OpenAI también ha tomado medidas preventivas. La empresa presentó recientemente una versión de ChatGPT especializada en ciberseguridad, disponible exclusivamente para responsables de la seguridad de infraestructuras críticas.

Estas decisiones reflejan la tensión entre la utilidad defensiva de la IA y su potencial malicioso. Las compañías intentan equilibrar la innovación con la necesidad de evitar que actores hostiles aprovechen estas capacidades sin supervisión.

La carrera por dominar la seguridad informática mediante algoritmos avanzados acaba de comenzar.

Sobre el autor
Redacción
Ver biografía