Hay algo profundamente inquietante y, al mismo tiempo, esperanzador en un modelo de inteligencia artificial que encuentra más fallos de seguridad en dos semanas que un experto humano en toda su carrera. No es una metáfora, ni una exageración periodística. Es lo que ha sucedido con Claude Mythos Preview, el último desarrollo de Anthropic, una empresa que desde sus inicios ha apostado por la seguridad y la transparencia en el campo de la IA. Pero esta vez, la transparencia tiene un límite no van a liberar el modelo al público. Y hay buenas razones para ello.
Un cazador de errores implacable
Imagina un detector de fallos de software que no se cansa, que lee millones de líneas de código con la paciencia de un monje copista y la precisión de un cirujano. Mythos Preview no solo identifica vulnerabilidades, sino que también es capaz de escribir el código necesario para explotarlas. Eso lo convierte en una herramienta de doble filo. Como bien dice Nicholas Carlini, científico de Anthropic
. La frase no suena a orgullo tecnológico, sino a advertencia. Porque cada vulnerabilidad descubierta es también un arma potencial en manos equivocadas."Ha encontrado más vulnerabilidades Mythos Preview en dos semanas que yo en toda mi vida"
Entre sus hallazgos más impactantes está una falla de 27 años en OpenBSD, un sistema operativo conocido por su enfoque en la seguridad. Otra de 16 años en FFmpeg, una herramienta esencial en el procesamiento de audio y video. Y varias debilidades en el núcleo de Linux el corazón de millones de servidores, teléfonos y dispositivos que permitirían tomar el control total del sistema. No estamos hablando de fallos menores, sino de agujeros en la base misma de la infraestructura digital del mundo.
El proyecto Glasswing una alianza inédita
Frente al riesgo de que este poder caiga en malas manos, Anthropic ha optado por una estrategia poco común no lanzar el modelo, sino usarlo en colaboración con quienes más lo necesitan. Así nació el proyecto Glasswing, una iniciativa que reúne a 12 gigantes tecnológicos entre ellos Apple, Amazon Web Services, Google, Microsoft, Nvidia y Crowdstrike y otras 40 organizaciones que gestionan infraestructuras críticas. El objetivo es claro detectar y parchear fallos antes de que sean explotados.
Además, la empresa ha establecido contacto con el Gobierno de Estados Unidos, particularmente con agencias vinculadas a la defensa y la ciberseguridad. Pero no lo hace sin condiciones. En los acuerdos con el Pentágono, Anthropic ha impuesto dos cláusulas éticas claras la IA no se utilizará para espionaje masivo de ciudadanos ni para el control de armas autónomas sin supervisión humana. Una postura que, en tiempos de militarización acelerada de la tecnología, resulta casi revolucionaria.
La responsabilidad de saber demasiado
"Pero vimos que era especialmente bueno en ciberseguridad", afirma Dario Amodei, presidente ejecutivo de Anthropic. No es una simple observación técnica, sino una confesión sobre el peso del conocimiento. Porque saber que tienes una herramienta capaz de desenmascarar debilidades ocultas durante décadas también implica saber que esa misma herramienta podría usarse para causar daño a escala global.
En un manual de 244 páginas, la empresa ha detallado cómo Mythos Preview mejora a sus predecesores, Sonnet y Opus, especialmente en razonamiento lógico, comprensión de código y capacidad de generalización. Pero ese documento no es un catálogo de prestaciones, sino una hoja de ruta ética. Un recordatorio de que avanzar en inteligencia artificial no es solo cuestión de potencia, sino de responsabilidad.
La decisión de no publicar Mythos Preview no es un retroceso en la apertura tecnológica, sino una evolución en la madurez del campo. A medida que las IA se vuelven más competentes en tareas críticas, también crece la obligación de gestionar su poder con cautela. No se trata de frenar el progreso, sino de guiarlo con criterio, con límites, con humanidad. Y en un mundo donde cada línea de código puede convertirse en un arma o en un escudo, esa distinción marca la diferencia entre el caos y la estabilidad.