El mercado de la inteligencia artificial avanza a un ritmo vertiginoso, pero detrás de cada nuevo modelo que promete resolver problemas complejos, hay un territorio cada vez más tenso el de la competencia tecnológica entre laboratorios, muchos de ellos con intereses divergentes y estrategias que rozan el límite ético. Las acusaciones recientes de Anthropic, uno de los actores clave en el desarrollo de modelos de lenguaje avanzados, han encendido una alarma no se trata solo de innovar más rápido, sino de cómo algunos están logrando acelerar su progreso a costa de vulnerar reglas no escritas y algunas bien escritas sobre propiedad, seguridad y soberanía tecnológica.
La destilación como arma competitiva
Uno de los métodos más polémicos en el desarrollo de inteligencia artificial es la destilación de modelos. Consiste, en esencia, en usar un modelo ya entrenado más grande, más preciso para entrenar a otro más pequeño, aprovechando sus respuestas como conocimiento comprimido. Es como si un alumno brillante explicara cada tema a un compañero para que este lo aprendiera más rápido. Pero esta técnica, legítima cuando se hace con permiso y transparencia, se vuelve opaca y problemática cuando se aplica sin autorización.
Anthropic, la empresa liderada por Darío Amodei, acusa a varias compañías chinas de haber llevado a cabo campañas a escala industrial para extraer capacidades de su modelo Claude, uno de los más refinados en razonamiento y coherencia. Según sus estimaciones, estas operaciones no fueron aisladas, sino sistemas complejos y coordinados, diseñados para eludir controles y obtener información valiosa de forma encubierta.
Infraestructuras ocultas y cuentas fraudulentas
La empresa describe una red de operaciones sofisticadas que recuerdan más a tácticas de ciberinteligencia que a investigación académica. Habla de lo que llama "hydra cluster", una infraestructura de múltiples cuentas falsas que distribuyen el tráfico entre plataformas de nube para interactuar con la API de Claude. Cuando una cuenta es bloqueada, otra la sustituye inmediatamente. Es una estrategia de resistencia, diseñada para mantener el acceso continuo.
Entre las empresas señaladas están DeepSeek, Moonshot y MiniMax. Los números son reveladores. En conjunto, se detectaron más de 16 millones de consultas a Claude, generadas desde casi 24.000 cuentas que violaron los términos de servicio. Estas no eran simples pruebas, sino una operación sistemática para adquirir capacidades poderosas de otros laboratorios en una fracción del tiempo y a una fracción del costo. Algo que, en un sector donde el entrenamiento de modelos puede costar cientos de millones de dólares, resulta tentador. Pero también peligroso.
Objetivos específicos detrás del robo de inteligencia
No todas las consultas tenían el mismo propósito. Cada empresa, según Anthropic, parecía perseguir objetivos distintos. DeepSeek, por ejemplo, realizó más de 150.000 consultas centradas en extraer capacidades de razonamiento avanzado. Pero también se interesó en cómo Claude aborda preguntas políticamente sensibles, buscando generar respuestas alternativas que podrían considerarse "seguras" en ciertos contextos. Es decir, no solo querían replicar inteligencia, sino también adaptar sesgos y controles éticos a su propio entorno.
Moonshot, por su parte, lanzó más de 3,4 millones de consultas, muchas enfocadas en desarrollar agentes capaces de usar herramientas digitales, como navegar interfaces o ejecutar comandos. Un paso clave hacia la automatización autónoma. MiniMax, con más de 13 millones de consultas, mostró una capacidad de reacción casi inmediata cuando Anthropic lanzó un nuevo modelo, redirigió su tráfico en cuestión de horas para seguir extrayendo información. Esta agilidad sugiere una infraestructura técnica altamente organizada y conectada.
El riesgo de una inteligencia sin frenos
El problema no es solo económico o de propiedad intelectual. La preocupación central de Anthropic es que estos modelos derivados, entrenados con datos ilícitamente obtenidos, pueden perder las salvaguardas que impiden usos peligrosos. Mecanismos diseñados para bloquear la creación de armas biológicas, la generación de campañas de desinformación o la manipulación masiva, pueden desaparecer en el proceso de copia. Y si esa tecnología cae en manos de actores con fines militares, de espionaje o de control social, las consecuencias podrían ser profundas.
Por eso, Anthropic argumenta que esta práctica socava los controles de exportación. Si un laboratorio extranjero puede acelerar su desarrollo tecnológico mediante la extracción encubierta de capacidades, entonces las restricciones sobre el acceso a chips avanzados como los que fabrican empresas estadounidenses y que están bajo estrictos controles pierden sentido. El conocimiento se convierte en una mercancía que, aunque no se exporte físicamente, se transfiere digitalmente, sin fronteras.
¿Hacia una guerra fría de la IA?
Estos episodios no son aislados. DeepSeek, por ejemplo, lanzó su modelo R1 hace un año, presentándolo como desarrollado "a una fracción del coste" de alternativas estadounidenses. Ahora, esas declaraciones cobran un nuevo matiz. ¿Qué tan legítimo es un modelo que, aunque técnicamente original, se alimentó en la sombra de otro?
La respuesta no es solo técnica, sino política y ética. La carrera por la supremacía en inteligencia artificial no se libra solo en laboratorios, sino también en los límites del comportamiento aceptable. Y mientras más dependan los gobiernos de estos modelos para la toma de decisiones, más riesgoso será que las capacidades críticas se desarrollen sin supervisión, sin transparencia y sin salvaguardas.
El futuro de la IA no se define solo por quién tiene los mejores algoritmos, sino por quién respeta los límites que protegen a la sociedad. Y si esas fronteras se vuelven borrosas, el precio podría ser demasiado alto para todos.