Cuando una inteligencia artificial se convierte en arma de debate, las decisiones técnicas trascienden lo puramente digital. El pasado sábado 28 de febrero, algo inusual sucedió en Estados Unidos la aplicación móvil de ChatGPT experimentó un incremento del 295% en la tasa de desinstalaciones respecto al día anterior. No fue un error de servidor ni un fallo técnico. Fue un rechazo colectivo, casi inmediato, que se extendió como un eco en las redes sociales bajo el lema #CancelChatGPT.
El origen del conflicto una IA con condiciones
Todo comenzó con un acuerdo silencioso entre el Departamento de Defensa de Estados Unidos y Anthropic, la empresa detrás de la inteligencia artificial Claude. Durante meses, Claude había sido utilizada en el análisis de documentos clasificados, pero con una condición clave no servir para espionaje masivo ni para el desarrollo de armas autónomas letales. Era una línea ética clara, que reflejaba un intento de controlar el uso militar de la tecnología.
Pero las cosas cambiaron cuando el Pentágono pidió a Anthropic que eliminara esas restricciones. La empresa se negó. En ese momento, Sam Altman, CEO de OpenAI, celebró públicamente la postura alabó la integridad de Anthropic, como si estuviera del lado de quienes creen que la tecnología no debe ceder ante presiones militares sin límites.
Horas después, esa admiración se convirtió en acción. OpenAI anunció que había cerrado un acuerdo con el Departamento de Defensa para reemplazar a Claude con ChatGPT. La noticia, aunque breve, generó inmediata desconfianza. El comunicado inicial no aclaraba si OpenAI había impuesto las mismas salvaguardas éticas que Anthropic. ¿Estaba dispuesta la empresa de Altman a cruzar líneas que otras se negaban a traspasar?
La respuesta del público datos que hablan
El público no tardó en reaccionar. Según datos de Sensor Tower, el sábado las reseñas de una estrella en la app de ChatGPT aumentaron un 775%. Al día siguiente, ese número subió otro 100%. En contraste, las valoraciones de cinco estrellas cayeron un 50%. Las desinstalaciones no eran solo un gesto simbólico eran una protesta con cifras.
Y mientras ChatGPT perdía terreno, su competidora ganaba impulso. Appfigures reveló que ese mismo sábado, las descargas de la app de Claude superaron por primera vez a las de ChatGPT en Estados Unidos. En al menos seis países fuera del territorio estadounidense, Claude se convirtió en la app más descargada Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza. Un cambio de corriente visible en tiempo real.
El silencio sobre las armas autónomas
Frente a la avalancha de críticas, Sam Altman anunció que se habían añadido enmiendas al acuerdo con el Departamento de Defensa. "Protecciones adicionales" para evitar malentendidos. Pero aquí está el detalle que muchos están señalando esas nuevas cláusulas mencionan vigilancia masiva, pero no hacen referencia explícita al desarrollo de armas autónomas letales.
Es una omisión que pesa. En un mundo donde drones autónomos podrían tomar decisiones de vida o muerte sin intervención humana, el silencio de OpenAI resulta elocuente. Anthropic, por su parte, mantiene su postura. Y aunque su rechazo al DoD podría tener consecuencias, también le ha valido un respaldo inesperado confianza pública.
El riesgo para Anthropic ética frente a supervivencia
La postura firme de Anthropic no está exenta de peligros. La empresa acaba de recaudar 60.000 millones de dólares en una ronda de inversión, una cifra que refleja su peso en el ecosistema de la IA. Pero Reuters señala una amenaza latente si el Departamento de Defensa decide etiquetar a Anthropic como "un riesgo para la cadena de suministro", las consecuencias podrían ser devastadoras.
Un sello así no solo afectaría sus contratos con el gobierno, sino que pondría en jaque sus acuerdos con decenas de empresas privadas. Su futuro como compañía, en ese escenario, estaría directamente en riesgo. Es un ejemplo claro de cómo la ética en tecnología no solo es una cuestión de principios, sino también de supervivencia económica.
Mientras tanto, otras instituciones gubernamentales estadounidenses ya están migrando de modelos de Anthropic a los de OpenAI. No es solo un cambio técnico. Es un giro estratégico que refleja una preferencia por la flexibilidad sobre la restricción.
¿Dónde está el límite?
Este episodio va más allá de una disputa entre dos empresas de inteligencia artificial. Pone sobre la mesa una pregunta incómoda ¿qué tan lejos debe llegar la IA en manos del poder militar? La respuesta no es técnica. Es política, social, moral.
El aumento masivo de desinstalaciones de ChatGPT no fue un capricho. Fue una señal.
"Hemos añadido protecciones para evitar la vigilancia masiva, pero no hemos inclado restricciones explícitas sobre armas autónomas letales" - Sam Altman, CEO de OpenAI
Y esa frase, aunque no se haya pronunciado literalmente en público, es la que muchos creen que subyace tras las decisiones de OpenAI. En un mundo donde las máquinas aprenden a tomar decisiones cada vez más complejas, saber quién controla esos procesos y con qué fines ya no es una pregunta para filósofos. Es una urgencia para todos.