La inteligencia artificial avanza a saltos, pero no todos los pasos son en la misma dirección. A veces, uno de ellos es también un retroceso el cierre de una puerta que antes parecía abierta de par en par. Así lo han sentido muchos desarrolladores esta semana, cuando Anthropic anunció que las cuentas de Claude Code incluidas en sus planes Pro y Max ya no podrán usarse con OpenClaw, el popular agente de IA creado por Peter Steinberger capaz de tomar control de un ordenador, abrir aplicaciones y ejecutar tareas complejas como si fuera un usuario real.
El fin de una era de integración abierta
OpenClaw no es una herramienta cualquiera. Desde su lanzamiento, se ha convertido en una especie de puente entre el pensamiento autónomo de las grandes modelos de lenguaje y la acción concreta en un entorno operativo. Con él, muchos programadores automatizaban flujos de trabajo, gestionaban archivos, navegaban por interfaces o realizaban pruebas de software sin tocar el teclado. Y durante meses, ese puente funcionó perfectamente con modelos como Claude Opus 4.6 y Claude Sonnet 4.6, aprovechando la potencia de los planes de suscripción de Anthropic.
Pero ahora, esa posibilidad ha desaparecido. Los usuarios pueden seguir usando Claude con OpenClaw, pero solo a través de la API de pago por uso, lo que cambia radicalmente la ecuación económica. No es lo mismo pagar una suscripción mensual fija que enfrentarse a un coste variable que, en escenarios de alto consumo, puede dispararse sin previo aviso.
El coste oculto de la autonomía
La explicación de Anthropic es clara el uso intensivo de OpenClaw consume muchos más tokens de los esperados. Los agentes como OpenClaw generan cantidades masivas de tráfico en la infraestructura de la compañía, lo que eleva los costes internos y agrava problemas de capacidad. Desde la empresa argumentan que los planes Pro y Max estaban diseñados para programar con Claude Code, no para alimentar agentes externos que toman decisiones encadenadas y prolongadas.
"Sé que apesta. En esencia, la ingeniería se basa en tomar decisiones difíciles, y una de las cosas que hacemos para atender a muchos clientes es optimizar el funcionamiento de las suscripciones para llegar a la mayor cantidad de personas posible con el mejor modelo. Los servicios de terceros no están optimizados de esta manera, por lo que nos resulta muy difícil mantenerlo a largo plazo", reconoció Boris Cherny, uno de los máximos responsables de Claude Code. Su mensaje, aunque sincero, suena a despedida de un modelo de colaboración más abierto, donde las herramientas de la comunidad podían crecer junto a las grandes IA.
¿Coincidencia o estrategia?
El timing del anuncio ha levantado sospechas. La decisión llegó apenas tres semanas después de que Peter Steinberger anunciara que vendía OpenClaw a OpenAI una noticia que, por cierto, generó su propio revuelo. Y casi en paralelo, Anthropic ha lanzado sus propias herramientas con funciones similares Claude Cowork, Dispatch y Remote Control. No son copias exactas, pero sí apuntan en la misma dirección ofrecer agentes autónomos que actúen por ti en tu ordenador, pero dentro del ecosistema cerrado de Anthropic.
Steinberger no se ha quedado callado. En una intervención pública en Twitter, lanzó una crítica ácida
Su frase resume el malestar de una parte de la comunidad que ve cómo las promesas de apertura y colaboración se van cerrando tras muros de APIs, suscripciones y productos propietarios."Es gracioso cómo coinciden los tiempos primero copian las funciones más populares de nuestra herramienta a su propio producto cerrado, y luego bloquean el acceso al open source". - Peter Steinberger, creador de OpenClaw
El doble estándar del ecosistema IA
Lo curioso es que no todas las compañías de IA han seguido el mismo camino. Mientras Anthropic pone barreras, otras como Kimi, Minimax, GLM o Xiaomi MiMo permiten el uso de OpenClaw con sus planes mensuales "sin problemas y sin (apenas) límites", según han señalado varios usuarios. Esto plantea una pregunta incómoda ¿es realmente un problema técnico insostenible, o una decisión estratégica para proteger un nuevo negocio? Porque si otras empresas pueden soportarlo, aunque sea con matices, la narrativa de la imposibilidad técnica pierde fuerza.
El debate no es solo técnico, sino también ético. En los primeros días de la IA generativa, muchos soñaron con un ecosistema descentralizado, donde las herramientas se ensamblaran como piezas de Lego. OpenClaw era un ejemplo de ese espíritu una creación independiente que aprovechaba modelos ajenos para hacer algo nuevo, útil y potente. Ahora, ese espíritu choca con la realidad de las empresas que necesitan rentabilizar sus modelos y controlar su uso.
La inteligencia artificial sigue prometiendo autonomía, pero cada vez más, esa autonomía viene con condiciones. La pregunta no es solo qué puede hacer una máquina por ti, sino quién decide hasta dónde puede llegar. Y en ese juego, las decisiones de hoy como el bloqueo de OpenClaw no son solo ajustes técnicos, sino señales claras de hacia dónde se dirige el poder en la era de las máquinas que piensan.