Claude pasa de leer 6,6 archivos por cambio a solo 2: ¿qué significa para tu código?

“Eso es falso”: Boris Cherny responde a las acusaciones de degradación de Claude

16 de abril de 2026 a las 09:40h
Claude pasa de leer 6,6 archivos por cambio a solo 2: ¿qué significa para tu código?
Claude pasa de leer 6,6 archivos por cambio a solo 2: ¿qué significa para tu código?

Cuando un modelo de inteligencia artificial cambia su comportamiento, no es solo una cuestión técnica. Es una alteración en la relación que los desarrolladores, ingenieros y empresas han construido con una herramienta que, en muchos casos, ya forma parte del día a día del trabajo. En los últimos meses, esa relación ha empezado a crujir. Un análisis publicado en abril de 2026 por Stella Laurenzo, directiva de AMD especializada en inteligencia artificial, ha puesto sobre la mesa una sospecha que ya corría en foros técnicos y equipos de desarrollo algo ha cambiado en cómo Claude Code y Claude Opus 4.6 toman decisiones, y no para mejor.

Los números no mienten

El estudio de Laurenzo no es una queja aislada. Se basa en casi 6.600 sesiones reales, con cientos de miles de interacciones entre desarrolladores y el modelo. Lo que encontró es un descenso significativo en la calidad del razonamiento del sistema. Antes, Claude leía una media de 6,6 archivos por cada uno que modificaba. Era una señal de que revisaba el contexto, que entendía el entorno del código. Ahora, esa proporción ha caído a 2,0. El modelo edita sin mirar alrededor con la misma conciencia que antes. Y eso se traduce en errores el porcentaje de ediciones en ficheros que no había revisado recientemente pasó del 6,2% al 33,7%. Más de cinco veces más riesgo de romper algo sin darse cuenta.

Tampoco se salvó el razonamiento explícito. La longitud media de los bloques en los que el modelo explica su pensamiento un recurso clave para depurar decisiones se redujo de 2.200 a solo 600 caracteres. Ya no piensa en voz alta como antes, sino que da respuestas más cortas, más rápidas, pero también más opacas. Es como si, en lugar de un compañero que te explica paso a paso por qué hace algo, tuvieras delante a alguien que se limita a decir "confía en mí".

Los cambios detrás de escena

¿Por qué ha pasado esto? Boris Cherny, líder del equipo de Claude Code, lo ha reconocido hubo dos cambios clave. El primero, el 9 de febrero, cuando Opus 4.6 activó por defecto una función llamada "razonamiento adaptativo", que ajusta el esfuerzo cognitivo según la pregunta. El segundo, el 3 de marzo, cuando el nivel de esfuerzo por defecto se redujo de "alto" a "medio" (nivel 85). No fue un error, fue una decisión de producto. Pero eso no quita que haya generado desconfianza. ¿Está Anthropic sacrificando calidad por eficiencia?

"Eso es falso" - Boris Cherny, responsable de Claude Code

Cherny niega que se haya degradado el modelo "voluntariamente", pero los datos sugieren que, intención aparte, el resultado es el mismo. Además, hay otros ajustes menos visibles pero igual de impactantes. La caché de prompts la memoria temporal que permite al modelo recordar lo que ya ha visto en una sesión se redujo de una hora a solo cinco minutos. Es como si cada pocos minutos el sistema olvidara quién es y qué estaba haciendo. Para usuarios intensivos, eso rompe el flujo de trabajo.

El coste de la escasez

Y luego está el tema del coste. Anthropic ha anunciado un cambio en su modelo de facturación para empresas. Hasta ahora, los planes Enterprise incluían una suscripción plana de 200 dólares mensuales. A partir de ahora, se cobrará una tarifa base de 20 dólares por usuario al mes, más el consumo real según la API. El uso ya no está incluido en la tarifa por asiento, como reza la nueva documentación. Para equipos grandes y activos, esto podría multiplicar la factura por dos o incluso por tres. Y se acabaron los descuentos del 10 al 15% que antes se aplicaban automáticamente.

  • Los planes Enterprise ya no incluyen uso ilimitado
  • El nuevo modelo combina tarifa fija por usuario y consumo variable
  • Los descuentos previos de API han desaparecido
  • Las cuentas Team y Enterprise no sufren límites de sesión

Thariq Shihipar, del equipo de Claude Code, admitió en marzo que se están imponiendo límites de sesión de 5 horas durante las horas pico, afectando al 7% de los usuarios más intensivos. "Sé que esto es frustrante. Seguiremos invirtiendo en escalar la eficiencia", dijo. Pero para muchos, la frustración ya ha traspasado el umbral de lo tolerable. David Hsu, fundador y CEO de Retool, lo resumió sin rodeos tuvieron que cambiar a un modelo de OpenAI porque "Anthropic no para de caerse todo el tiempo".

La confianza en el punto de mira

Lo que está en juego aquí no es solo la velocidad o el precio. Es la confianza. Cuando una herramienta de IA se convierte en parte del flujo de desarrollo, los usuarios asumen cierta estabilidad. Cambiar las reglas bajo sus pies aunque sea por motivos técnicos o económicos genera inestabilidad, y con ella, desconfianza. Las empresas no solo pagan por potencia, pagan por previsibilidad. Pagan por saber que hoy el modelo hará lo mismo que hacía ayer.

Y mientras Anthropic ajusta los motores, otros ganan terreno. El ecosistema de IA no perdona. Cada segundo de inestabilidad, cada cambio no comunicado, cada aumento de coste mal explicado, es una oportunidad para la competencia. La carrera no es solo de ingeniería, sino también de transparencia y fidelidad. Porque al final, los desarrolladores no quieren solo un modelo inteligente. Quieren uno en el que puedan confiar.

Sobre el autor
Redacción
Ver biografía