Más de 600 empleados de Google piden a Sundar Pichai frenar acuerdos con el DoD: su IA no debería apoyar vigilancia masiva ni armas autónomas

Google llegó a un acuerdo con el Departamento de Defensa para usar su IA, con cláusulas anti-vigilancia masiva y anti-armas autónomas. Aun así, 600+ empleados piden a Pichai detener la colaboración.

29 de abril de 2026 a las 12:27h
Más de 600 empleados de Google piden a Sundar Pichai frenar acuerdos con el DoD: su IA no debería apoyar vigilancia masiva ni armas autónomas
Más de 600 empleados de Google piden a Sundar Pichai frenar acuerdos con el DoD: su IA no debería apoyar vigilancia masiva ni armas autónomas

Hay una línea muy fina entre el progreso tecnológico y su uso en contextos que desdibujan la ética. Google parece estar intentando caminar sobre esa línea, pero no todos dentro de la empresa creen que sea posible hacerlo sin caer. El gigante tecnológico ha llegado a un acuerdo con el Departamento de Defensa de Estados Unidos para que este pueda utilizar su inteligencia artificial, aunque con advertencias explícitas su tecnología no debe servir para vigilancia masiva ni para desarrollar armas que decidan solas quién vive o muere. Suena a equilibrio. Pero en el interior de Google, muchos empleados no ven equilibrio, sino riesgo.

La rebelión silenciosa dentro de Google

Más de 600 trabajadores han elevado la voz. El lunes, enviaron una carta firmada directamente al consejero delegado, Sundar Pichai, pidiéndole que detenga cualquier colaboración clasificada con el Ejército. No es la primera vez que ocurre algo así. En 2018, Google se retiró del Proyecto Maven tras una protesta interna masiva empleados se negaban a que sus algoritmos ayudaran a identificar objetivos en ataques aéreos. Aquella fue una derrota simbólica para la cúpula directiva y una victoria para la conciencia colectiva de sus ingenieros. Ahora, la historia amenaza con repetirse.

Los empleados no están en contra de la defensa nacional, pero sí de ciertos usos de la tecnología. En su carta, dejaron clara su postura "Queremos que la IA beneficie a la humanidad, no que se utilice de forma inhumana o extremadamente dañina". Es una frase que suena casi como un credo. Y no es solo retórica. Detrás de ella hay temores reales que una herramienta diseñada para optimizar búsquedas o traducir idiomas termine en un dron con autonomía para atacar.

El juego de ajedrez ético del Pentágono

Lo curioso es que el Departamento de Defensa no está buscando a cualquiera. Primero intentó vincularse con Anthropic, una de las empresas punteras en IA, pero solo bajo la condición de que se incluyera una cláusula que prohibiera el uso de su tecnología en vigilancia masiva o en armas letales autónomas. Cuando Anthropic no aceptó, el Pentágono cortó la relación. Ironías de la guerra moderna ahora busca alianzas, pero con condiciones éticas. Y cuando no las obtiene, se marcha.

Antes de llegar a Google, el Pentágono ya había firmado un acuerdo con OpenAI. Mientras tanto, los modelos de Anthropic, pese a su postura firme, han sido utilizados en operaciones sensibles durante tensiones bélicas con Irán y, según algunas filtraciones, incluso en simulaciones para la captura de líderes políticos, como el caso de Nicolás Maduro. La tecnología no tiene ideología, pero su aplicación sí.

Google, con su nuevo acuerdo, insiste en que no hay riesgo de desviación. Sus contratos incluyen salvaguardias. Pero los empleados no se conforman. Saben que las cláusulas se pueden interpretar, sortear o incluso ignorar cuando entran en juego intereses de seguridad nacional. Una línea de código puede tener múltiples destinos.

¿Puede la IA ser neutra?

Este debate no es nuevo, pero nunca había estado tan cerca del poder. La inteligencia artificial no es como el acero no es un material inerte. Es un sistema que aprende, decide y, en algunos casos, anticipa. Que el Pentágono quiera usarla para análisis de inteligencia, logística o ciberdefensa puede parecer razonable. Pero el salto hacia usos ofensivos es más corto de lo que parece.

Y aquí está el meollo ¿quién decide dónde está el límite? ¿Los gobiernos? ¿Las empresas? ¿Los empleados que construyen los modelos? En Google, hay ingenieros que no quieren convertirse, sin saberlo, en cómplices de decisiones que podrían costar vidas. Su resistencia no es antipatriótica; es una exigencia de transparencia y responsabilidad.

El acuerdo con el Departamento de Defensa no es un hecho aislado. Es parte de una tendencia creciente los grandes actores de la IA están siendo cortejados por militares de todo el mundo. Lo que ocurre dentro de Google no es solo una disensión laboral. Es un debate sobre el alma de la tecnología. Y mientras no haya reglas globales, cada empresa, cada equipo, cada programador tendrá que responder a la misma pregunta ¿para qué sirve lo que estoy construyendo?

Sobre el autor
Redacción
Ver biografía