Anthropic desactiva el ‘freno automático’ que detenía sus modelos de IA más peligrosos

"No sentíamos que tuviera sentido": por qué Anthropic renunció a sus compromisos unilaterales

28 de febrero de 2026 a las 14:50h
Anthropic desactiva el ‘freno automático’ que detenía sus modelos de IA más peligrosos
Anthropic desactiva el ‘freno automático’ que detenía sus modelos de IA más peligrosos

En febrero de 2024, Anthropic, una de las empresas más vigiladas del mundo de la inteligencia artificial, anunció un giro que resonó como un terremoto en círculos técnicos, éticos y políticos. Lo hizo con un comunicado discreto, pero su contenido no lo era en absoluto. La "Política de Escalado Responsable", que hasta entonces había sido su sello distintivo en materia de seguridad, dejaba de ser un freno real al avance tecnológico. Ya no habría pausa obligatoria si un modelo superaba la capacidad de contenerlo. Ese mecanismo de emergencia, el que prometía detener el desarrollo si las salvaguardas no daban la talla, ya no está. En su lugar, ahora hay una hoja de ruta con objetivos flexibles.

El freno que se desactivó

Antes de este cambio, Anthropic se definía como una compañía diferente. Sus fundadores, entre ellos Dario Amodei, habían salido de OpenAI precisamente porque consideraban que allí no se tomaban en serio los riesgos a largo plazo de la IA. Crearon Anthropic con un norte claro desarrollar inteligencia artificial avanzada, pero sin poner en riesgo la estabilidad humana. Su política de escalado incluía una cláusula clave. Si un modelo adquiría capacidades que superaban la velocidad a la que podían diseñarse salvaguardas efectivas, el entrenamiento se detenía. Era un compromiso ético con dientes. Un freno automático en una industria que acelera sin semáforos.

Pero ese freno ya no está. Se ha sustituido por un sistema de informes periódicos, revisiones externas y metas públicas que, aunque sonables, carecen de fuerza vinculante. Lo que antes era una obligación se ha convertido en una promesa. La propia empresa lo confirmó en un comunicado, sin alharacas ni justificaciones extensas. Era un ajuste técnico, decían. Pero las consecuencias son profundas.

Una carrera sin reglas claras

El contexto no puede ser más revelador. Mientras Anthropic replegaba sus líneas rojas, OpenAI, Google y xAI seguían avanzando sin restricciones similares. La presión competitiva es enorme. Y en ese escenario, Jared Kaplan, director científico de Anthropic, dio una explicación al Time que desnuda el dilema

"No sentíamos que tuviera sentido asumir compromisos unilaterales si los competidores están avanzando a toda velocidad"

Es una lógica fría, pero comprensible. Si solo algunos jugadores se detienen a reflexionar mientras otros no, ¿quién controla realmente el rumbo? Anthropic argumenta que detenerse cuando otros no lo hacen podría, paradójicamente, llevar a un mundo menos seguro. La responsabilidad individual no sirve si no hay responsabilidad colectiva. Es como frenar en una autopista mientras todos los demás aceleran.

La política que falló y la regulación que no llegó

El problema no es solo interno. Anthropic lo reconoce con una franqueza inusual el clima antiregulatorio en Washington ha dejado a las empresas solas. No hay marco legal que obligue a todos a respetar mínimos de seguridad. En este vacío, los esfuerzos voluntarios de compañías como Anthropic terminan siendo asimétricos. Protegen a quienes quieren ser protegidos, pero no frenan a los que no quieren ser frenados.

La ironía es amarga. La compañía que nació para poner límites ahora los relaja, no por falta de convicción, sino por falta de contexto. Su apuesta inicial por una "carrera hacia arriba", en la que su rigor forzaría a otros a imitarla, no funcionó. El resto del sector no subió el listón. Así que Anthropic ha decidido separar sus directrices internas de sus recomendaciones al sector. Ya no intenta liderar por ejemplo. Intenta sobrevivir.

Las salidas que hablan más que los comunicados

Los cambios de política no se miden solo en documentos. Se miden en personas. Y en las últimas semanas, varios investigadores de seguridad han abandonado Anthropic. Uno de ellos, Mrinank Sharma, envió una carta a sus colegas este mes en la que decía, con una claridad escalofriante "el mundo está en peligro" a causa de la IA. Su salida, según fuentes cercanas al Wall Street Journal, estaría directamente relacionada con el nuevo enfoque de la empresa.

Es un gesto simbólico, pero cargado de significado. Cuando los que dedican su carrera a anticipar catástrofes tecnológicas sienten que ya no pueden hacerlo desde dentro, algo se ha roto. No es solo una renuncia profesional. Es un grito de alerta silenciado.

El contrato que pesa más que los principios

Y entonces aparece el Pentágono. En el mismo día en que se hizo público el cambio de política, el secretario de Defensa estadounidense, Pete Hegseth, dio un ultimátum a Anthropic adapta tus líneas rojas sobre el uso de Claude, tu modelo de IA, o pierdes un contrato de 200 millones de dólares. El mensaje era claro no puedes decir que tu tecnología no debe usarse en aplicaciones militares si quieres el dinero del Departamento de Defensa.

Anthropic insiste en que ambos hechos son independientes. Pero la coincidencia en el tiempo es demasiado significativa para ignorarla. La empresa mantiene que aún puede retrasar el desarrollo de modelos "altamente capaces" si las circunstancias lo exigen. También promete informes detallados de riesgo cada tres o seis meses, verificados por terceros. Pero ya no hay garantía de que eso baste.

Un nuevo equilibrio inestable

El mundo de la IA está en una encrucijada. Anthropic, antes un faro de moderación, ahora navega con brújula cambiante. Su historia refleja un problema mayor la seguridad no puede depender solo de la buena voluntad de unas pocas empresas. Sin regulación global, sin acuerdos vinculantes, los gestos éticos se convierten en obstáculos competitivos. Y en un entorno así, hasta los más responsables terminan cediendo.

Hoy, Anthropic sigue diciendo que quiere un futuro seguro. Pero ha dejado de creer que puede construirlo solo. Y eso, más que cualquier cambio de política, es lo que debería preocuparnos a todos.

Sobre el autor
Redacción
Ver biografía