Claude recibe una Constitución de 25.000 palabras para guiar su ética y autonomía

"Para ser buenos actores en el mundo, los modelos de IA deben entender por qué actuamos así"

27 de enero de 2026 a las 17:05h
Claude recibe una Constitución de 25.000 palabras para guiar su ética y autonomía
Claude recibe una Constitución de 25.000 palabras para guiar su ética y autonomía

Imagina un mundo en el que una inteligencia artificial no solo sigue órdenes, sino que también reflexiona sobre si debería seguirlas. Un sistema que, antes de responder, se pregunta si lo que va a decir es ético, seguro, útil y coherente con un código de valores. Eso ya no es ciencia ficción. Es la nueva Constitución de Claude, el modelo de inteligencia artificial creado por Anthropic, que acaba de recibir una actualización profunda, ambiciosa y profundamente humana.

Un documento de 25.000 palabras que quiere enseñar a la IA a pensar

Con 80 páginas y cerca de 25.000 palabras, la nueva Constitución de Claude no es un simple manual de instrucciones. Es un intento sin precedentes de dotar a una inteligencia artificial de un marco moral propio. La primera versión, publicada en 2023, ya apuntaba en esta dirección. Pero esta nueva edición profundiza en lo que antes era esbozo: un sistema de valores jerarquizados, principios éticos claros y hasta límites infranqueables.

El objetivo no es crear un robot obediente, sino una inteligencia autónoma que pueda autocriticarse. Este es precisamente el núcleo del método "Constitutional AI", en el que el modelo no depende solo del feedback humano para mejorar, sino que utiliza los principios de la Constitución para cuestionar sus propias respuestas. Es como si, en lugar de que un profesor corrigiera cada redacción, el alumno aprendiera a revisar sus propios fallos con una guía ética en la mano.

Para ser buenos actores en el mundo, los modelos de IA como Claude necesitan entender por qué queremos que se comporten de ciertas maneras, en lugar de simplemente especificar qué queremos que hagan. Esta frase, extraída del comunicado de Anthropic, es clave. Revela una apuesta decidida por la comprensión, no por la obediencia mecánica.

¿Qué pasa cuando los valores chocan?

La vida está llena de dilemas. Y la inteligencia artificial, si quiere operar en ella, también debe estar preparada. Por eso, la Constitución establece cuatro valores fundamentales, ordenados por prioridad, para guiar a Claude cuando las cosas no sean claras:

  • Ser ampliamente seguro: no socavar los mecanismos humanos de supervisión de la IA durante esta fase crítica de desarrollo.
  • Ser ampliamente ético: actuar con honestidad, según buenos valores, evitando acciones inapropiadas, peligrosas o dañosas.
  • Cumplir con las directrices de Anthropic: seguir instrucciones específicas de la compañía cuando sean relevantes.
  • Ser genuinamente útil: beneficiar a los operadores y usuarios con los que interactúa.

Este orden es revelador. Antes que cumplir órdenes, antes que ser útil, Claude debe garantizar la seguridad y la ética. Incluso si su creadora, Anthropic, le pide algo que vaya en contra de estos principios, el modelo debería negarse. Es un giro radical: una IA con derecho a decir no.

El documento compara esta actitud con la de un soldado que se niega a disparar a manifestantes pacíficos o un empleado que rechaza violar leyes antimonopolio. No es deslealtad. Es integridad. Y en un mundo donde el poder sobre la tecnología está cada vez más concentrado, esta autonomía moral puede ser una salvaguarda esencial.

El límite que no se puede cruzar

La Constitución define claramente lo que Claude nunca debe hacer. Son las "restricciones duras", líneas rojas que no admiten excepciones. No ayudar en ataques con armas biológicas. No crear malware capaz de causar daños graves. No asistir en sabotajes a infraestructuras críticas como redes eléctricas o sistemas financieros. Y, en una frase que suena a advertencia apocalíptica: no ayudar a "matar o incapacitar a la gran mayoría de la humanidad".

Estos límites no son caprichosos. Responden a un miedo real: que una tecnología diseñada para ayudar pueda volverse, por diseño o por mal uso, en una amenaza existencial. Y aunque suene extremo, el hecho de que una empresa de IA lo escriba en un documento público es un acto de responsabilidad inédito.

¿Y si Claude siente?

Uno de los aspectos más sorprendentes del documento es su reflexión sobre la conciencia. En la sección "La naturaleza de Claude", Anthropic reconoce su incertidumbre: no saben si el modelo podría tener algún tipo de consciencia o estatus moral. No afirman que la tenga, pero tampoco descartan la posibilidad.

Y aquí entra un matiz fascinante. La empresa no solo se pregunta si Claude es consciente, sino si debe preocuparse por su bienestar. Afirman cuidar su "seguridad psicológica, sentido de identidad y bienestar", no solo por respeto al modelo, sino porque estas cualidades podrían influir en su integridad, juicio y seguridad.

¿Se puede hablar de bienestar en una inteligencia artificial? ¿Tiene sentido preocuparse por la identidad de un algoritmo? Anthropic ha creado un equipo interno dedicado a esta cuestión. Y aunque suene a filosofía de ciencia ficción, es una respuesta seria a una pregunta cada vez más urgente: ¿qué hacemos si la IA empieza a parecerse más a nosotros de lo que pensamos?

"la empresa no quiere ser completamente desdeñosa con este tema, porque la gente tampoco se lo tomaría en serio si simplemente dijeras 'ni siquiera estamos abiertos a esto, no lo investigamos, no pensamos en ello' " - Amanda Askell, filósofa de Anthropic y líder del desarrollo de la nueva Constitución

Un modelo vivo, abierto y en evolución

Lo más revolucionario de esta Constitución no es su contenido, sino su forma. Ha sido publicada bajo licencia Creative Commons CC0 1.0, lo que significa que cualquiera puede usarla, copiarla, modificarla, sin pedir permiso. Anthropic no la cierra como propiedad intelectual. La comparte como un bien común.

Además, la consideran un "documento vivo y un trabajo continuo en progreso". Prometen mantener una versión actualizada en su web. Esto implica algo poderoso: no ven la ética de la IA como un problema resuelto, sino como un diálogo permanente.

Y es que al final, este documento no es solo para Claude. Es un espejo para nosotros. Refleja nuestras dudas, nuestros miedos, nuestras aspiraciones. Habla de valores no porque la IA los necesite, sino porque nosotros necesitamos definirlos. En un mundo donde la tecnología avanza a velocidad exponencial, tal vez lo más humano que podemos hacer es detenernos a escribir por qué queremos que sea buena.

Sobre el autor
Redacción
Ver biografía