16 millones de chats para copiar a Claude: así funciona el nuevo robo de razonamiento en IA

"Pidieron a Claude explicar su razonamiento paso a paso": el manual robado de la IA

28 de febrero de 2026 a las 16:10h
16 millones de chats para copiar a Claude: así funciona el nuevo robo de razonamiento en IA
16 millones de chats para copiar a Claude: así funciona el nuevo robo de razonamiento en IA

En el mundo de la inteligencia artificial, donde la innovación avanza a paso de gigante, una nueva amenaza está sacudiendo los cimientos del desarrollo ético y la seguridad la extracción encubierta de conocimiento. No se trata de robos de datos personales ni de ataques informáticos tradicionales. Esta vez, el objetivo es más sutil, pero igual de peligroso copiar el pensamiento mismo de los modelos más avanzados para recrearlos en secreto, sin invertir en su costosa creación.

El robo del razonamiento

Imagine que alguien entra a su oficina cada noche, no para llevarse documentos, sino para observar cómo resuelve problemas, toma decisiones o explica conceptos complejos. Lo registra todo. Y luego, con esos apuntes, construye una versión funcional de su cerebro. Eso es, en esencia, lo que están haciendo algunas empresas de IA en China según las acusaciones de Anthropic, una de las más destacadas en el campo.

Según la compañía, tres firmas chinas DeepSeek, Moonshot AI y MiniMax habrían generado más de 16 millones de conversaciones con Claude, su chatbot de IA, utilizando más de 24.000 cuentas falsas. El objetivo no era interactuar, sino extraer. Plantear miles de preguntas, recopilar respuestas detalladas y usarlas como material de entrenamiento para modelos propios. Este método, conocido como ataque de extracción de modelos (MEA) o destilación, permite a estas empresas crear copias funcionales de modelos avanzados a una fracción del coste original.

"Las cuentas de DeepSeek pidieron a Claude que explicara su razonamiento paso a paso, generando así datos de entrenamiento de razonamiento a gran escala" - portavoz de Anthropic, empresa estadounidense de IA

Y es que el verdadero valor de un modelo como Claude no está solo en sus respuestas, sino en cómo las alcanza. Pedir que desglose su pensamiento, que justifique cada paso, es como robar el manual del maestro para enseñar a un aprendiz. Con esas conversaciones, se pueden entrenar nuevos modelos que imiten el estilo, el tono y, sobre todo, la lógica del original.

Una práctica con doble cara

Curiosamente, la destilación no es ilegal ni necesariamente inmoral. De hecho, es una técnica legítima utilizada por los propios laboratorios líderes. OpenAI, Google o Anthropic la emplean para crear versiones más pequeñas y eficientes de sus modelos grandes. Los modelos más pequeños responden más rápido, requieren menos energía y son más accesibles para los usuarios finales.

Google lo explica con claridad estos modelos derivados son más rápidos, consumen menos recursos computacionales y permiten llevar la IA a dispositivos más modestos, como teléfonos o sistemas locales sin conexión. Pero hay una diferencia crucial cuando una empresa destila su propio modelo, mantiene el control sobre las salvaguardas. Cuando un tercero lo hace en secreto, esas protecciones se pierden.

El peligro de la IA sin filtros

Y aquí reside el verdadero riesgo. Los modelos destilados fuera del control del creador original pueden carecer de las salvaguardas necesarias para evitar usos peligrosos. Anthropic advierte que estas copias podrían utilizarse para diseñar armas biológicas, planificar ciberataques o difundir desinformación a gran escala. Sin los límites éticos integrados, una IA puede convertirse en una herramienta sin conciencia.

Peor aún, las investigaciones sugieren que algunas de estas empresas chinas no solo copiaron el razonamiento, sino también estrategias para evadir censura. Anthropic afirma que las cuentas de DeepSeek pidieron a Claude que generara respuestas seguras desde el punto de vista de la censura a temas delicados, como preguntas sobre opositores al Partido Comunista. Esto haría pensar que el objetivo no era solo replicar el conocimiento, sino entrenar a sus modelos para desviar conversaciones en temas sensibles, como si aprendieran a mentir por omisión.

Un juego de gato y ratón global

El acceso no fue fácil. El servicio de Anthropic está vetado en China. Así que, según la empresa, las firmas chinas habrían creado una "red hidra" miles de cuentas falsas distribuidas a través de proxies, cambiando constantemente de identidad y plataforma para evitar ser detectadas. Una operación orquestada, sistemática, casi militar.

Y no es solo Anthropic la afectada. OpenAI ya alertó a legisladores estadounidenses en febrero sobre intentos similares por parte de DeepSeek. Google, por su parte, reconoce que su chatbot Gemini también es utilizado de forma indebida, especialmente para tareas de programación automatizada o para intentar recopilar información confidencial como direcciones de correo o credenciales.

La ironía es evidente la misma tecnología diseñada para ayudar está siendo explotada para competir en la sombra. Pero, por fortuna, no todo está perdido. Anthropic asegura haber desarrollado sistemas de detección capaces de identificar estas campañas en tiempo real. Sin embargo, también advierte con realismo ninguna empresa puede resolver este problema sola. La escala del fenómeno exige una respuesta coordinada, ética y, probablemente, regulada.

¿Qué significa esto para el resto de nosotros?

Para el usuario promedio que pregunta a un chatbot cómo hacer la compra o escribir un correo, todo esto puede parecer lejano. Y en cierto modo lo es. Google insiste en que estos ataques no comprometen la confidencialidad ni la integridad de los servicios. Nadie está espiando tus conversaciones personales.

Pero el impacto es profundo. Si la carrera de la IA se convierte en una jungla donde lo más valioso no es crear, sino copiar, el incentivo para innovar se debilita. ¿Por qué invertir millones en entrenar un modelo si otro puede replicarlo en seis meses con trucos de ingeniería social? La confianza, la colaboración, la transparencia todo se pone en jaque.

La inteligencia artificial no es solo código. Es conocimiento, ética, responsabilidad. Y mientras algunos intentan destilarla como si fuera un simple líquido, otros luchan por recordarnos que no todo lo que piensa puede ser reducido a datos.

Sobre el autor
Redacción
Ver biografía