El software que construye software. Suena casi a ciencia ficción, pero es ya parte de nuestra realidad. Y esta semana, ese futuro tuvo un pequeño tropiezo bajo los focos una filtración inesperada expuso al mundo parte del código interno de Claude Code, la herramienta de programación impulsada por inteligencia artificial de Anthropic. No fue un ciberataque. No hubo servidores hackeados ni datos de usuarios comprometidos. Fue algo más humilde, y por eso más revelador un error humano.
Un archivo de más, un escándalo de menos
Todo comenzó con la publicación de una actualización la versión 2.1.88 del paquete @anthropic-ai/claude-code. En el proceso, alguien en Anthropic dejó fuera de lugar un archivo .map ese tipo de fichero que, en desarrollo web, sirve para depurar código, como un mapa del tesoro que lleva desde lo que ves en el navegador hasta las entrañas del programa original. Este en concreto pesaba 59,8 MB y, sin querer, dio acceso a más de 500.000 líneas de código fuente interno.
Durante varias horas, ese archivo estuvo disponible en un repositorio público de GitHub, accesible para cualquiera con conexión a internet. Y como suele pasar en la comunidad de desarrolladores, cuando algo está disponible… se descarga. Se estudia. Se comenta. En poco tiempo, el código acumuló más de 50.000 bifurcaciones o forks, en jerga técnica, una señal clara de que miles de ojos estaban escudriñando cada línea.
Lo que se vio y lo que no
¿Qué reveló ese código? No fue el modelo Claude en sí, ese cerebro de lenguaje avanzado que ha competido con GPT. Lo filtrado fue la herramienta, no la mente. Es decir, el sistema de software que permite a Claude Code ayudar a programar cómo interactúa con repositorios, cómo sugiere cambios, cómo integra plugins. También asomaron funciones en desarrollo, arquitecturas internas y limitaciones técnicas que los ingenieros aún no querían mostrar.
Para los curiosos, fue como colarse en el taller de un relojero maestro y ver los diseños no terminados, las herramientas personalizadas, los errores borrados con tachones. No se filtraron datos de clientes, ni credenciales, ni información sensible. Pero sí se expuso una visión inusualmente clara de cómo se construye, hoy, una IA que programa.
"Hoy temprano, una versión de Claude Code incluyó algo de código fuente interno. No se involucraron ni expusieron datos o credenciales confidenciales del cliente. Este fue un problema de empaquetado de la versión causado por un error humano, no una violación de seguridad. Estamos implementando medidas para evitar que esto vuelva a suceder." - un portavoz de Anthropic
Una herramienta que ya deja huella
La dimensión del incidente no se mide solo en líneas de código o en forks. Se mide en impacto real. Según estimaciones de SemiAnalysis, Claude Code ya está presente en el 4% de todos los commits públicos en GitHub. Es decir, de cada 100 cambios publicados en ese gigante del desarrollo, cuatro llevan su sello. Y la proyección es clara para 2026, esa cifra podría alcanzar el 20%.
Esto no es solo una herramienta más. Es un indicio de cómo la programación está cambiando. Ya no se trata de que las máquinas ejecuten órdenes, sino de que participen activamente en su creación. Y como toda transición, viene con fallos, con tropiezos, con momentos incómodos. Pero también con una pregunta implícita si una herramienta así puede cometer errores humanos, ¿qué tanto de humano queda en el código que genera?
Anthropic retiró el paquete afectado y corrigió la versión. El fuego fue contenido. Pero la imagen quedó una IA que ayuda a programar, programada por humanos que también cometen errores. Y en ese espejo, tal vez, reside la lección más valiosa no importa cuán avanzada sea la tecnología, sigue siendo obra de manos que dudan, equivocan y aprenden. Como todos nosotros.