La IA de Amazon que 'alucina': desarrolladores dedican más horas a arreglarla que a programar

"Mi trabajo era arreglar el código que Kiro rompía": cuando la IA convierte al programador en bombero

13 de marzo de 2026 a las 17:05h
La IA de Amazon que 'alucina': desarrolladores dedican más horas a arreglarla que a programar
La IA de Amazon que 'alucina': desarrolladores dedican más horas a arreglarla que a programar

En una oficina cualquiera de Amazon, en algún rincón del mundo, un desarrollador revisa línea por línea el código que supuestamente debía ahorrarle tiempo. No lo escribió él, lo generó una inteligencia artificial. Su trabajo ya no es programar, sino desprogramar errores, corregir lógicas absurdas, deshacer lo que la máquina rompió al intentar ayudar. Este escenario, cada vez más común, no es ciencia ficción. Es el día a día en una de las empresas más poderosas del planeta, donde la promesa de la automatización se está cumpliendo a un costo humano poco discutido.

La IA que crea más trabajo del que elimina

Dina, desarrolladora de software en Nueva York, fue despedida días después de hablar con un medio internacional. Su testimonio, revelador, muestra una paradoja "Mi labor reciente no era escribir código, sino arreglar el código que la IA programadora de Amazon llamada Kiro rompía". Según ella, Kiro "alucinaba y generaba código erróneo con frecuencia". Un sistema diseñado para acelerar el desarrollo se convirtió en una fuente constante de fallos, obligando a los humanos a actuar como correctores de errores, no como creadores.

Este fenómeno no es aislado. En múltiples equipos técnicos de Amazon, empleados reportan que pasan más tiempo depurando código generado por IA que escribiendo uno nuevo. La eficiencia prometida se diluye en horas de revisión, pruebas y correcciones que nadie había previsto en los cálculos iniciales. Es como si, al instalar un robot en una fábrica, este ensamblara mal cada pieza, obligando a los trabajadores a desmontar y volver a montar todo manualmente.

Despidos y automatización una ecuación incómoda

En los últimos meses, Amazon ha recortado a 30.000 personas, un 10% de su fuerza corporativa. No es un secreto que la empresa busca operar con estructuras más delgadas. En comunicaciones internas, el CEO Andy Jassy ha señalado que "las ganancias de eficiencia que plantea la automatización de procesos" permitirán "operar con equipos más ajustados". La palabra "ajustados" suena eufemística, pero muchos empleados la traducen como "más trabajo, menos gente".

Y no son solo despidos. Varios trabajadores describen una sensación inquietante la de estar documentando sus propios procesos, corrigiendo fallos de la IA, enseñándole al sistema cómo hacer su trabajo, todo mientras sienten que están "preparando su propio reemplazo por máquinas". Uno de ellos lo resumió con crudeza se sienten como "suicidas laborales". No los despiden de golpe, pero sienten que su ciclo en la empresa ya tiene fecha de caducidad.

El martillo que todo lo quiere clavar

Una ingeniera de Amazon, que prefiere mantenerse en el anonimato, lanza una advertencia desde dentro "no puedes mirar cada problema y pensar cómo usar el martillo que tienes para dicho problema. Lo primero es saber si ese problema realmente necesita un martillo". Es una crítica directa al entusiasmo tecnológico que domina la cultura corporativa actual. La IA se despliega como si fuera la solución universal, incluso cuando no hay claridad sobre qué problema exactamente está resolviendo.

Y los datos lo respaldan. Informes internos de la empresa vinculan al menos dos caídas de servicio importantes a cambios de código realizados con herramientas de IA que "no fueron debidamente supervisados". La automatización, cuando corre más rápido que la comprensión humana, puede convertirse en una fuente de inestabilidad, no de eficiencia. Es un recordatorio incómodo las máquinas no cometen errores por maldad, sino porque quienes las programan, supervisan o implementan no han previsto todos los escenarios.

La vigilancia del uso de la IA

Lo más inquietante no es solo que la IA esté fallando, sino cómo se está midiendo su adopción. Amazon ha implementado paneles de control que permiten a los jefes de equipo monitorear "quién usa la IA y con qué frecuencia". En algunos equipos, se ha fijado como objetivo que al menos el 80% de la plantilla use estas herramientas semanalmente, independientemente de su utilidad real. La métrica no es si el trabajo mejora, sino si se usa la herramienta.

Recursos Humanos ha ido más allá. Documentos internos incluyen preguntas explícitas a los candidatos sobre "cómo ha usado la IA para mejorar su impacto". No basta con ser competente; ahora hay que demostrar que eres amigo de la máquina. El ascenso profesional se condiciona al uso de la IA, no a la calidad del resultado final. Es una presión sutil pero constante si no usas la IA, no estás alineado con el futuro de la empresa.

Una petición contra el frenesí tecnológico

Más de 1.000 trabajadores de Amazon han firmado una petición interna contra el "agresivo despliegue de herramientas de IA". Denuncian una cultura que exige "trabajar más horas con menos recursos", justificada por la amenaza de una competencia externa que está "hambrienta". La presión no viene solo de fuera, sino de arriba los equipos deben adoptar la IA porque los rivales también lo están haciendo, sin tiempo para evaluar si realmente funciona.

Este movimiento no es un rechazo a la tecnología, sino una llamada a la racionalidad. Los empleados no piden parar la innovación, sino incorporarla con criterio. Quieren procesos más transparentes, evaluaciones reales de impacto y, sobre todo, que se reconozca que no toda solución técnica es buena por el simple hecho de existir.

El futuro no es inevitable, es decidido

Amazon no es la única empresa inmersa en esta transformación. Pero su escala y su influencia la convierten en un laboratorio de lo que está por venir. Lo que ocurre allí no es solo un caso corporativo, es un reflejo de una tendencia global la automatización acelerada, muchas veces guiada más por el entusiasmo tecnológico que por el análisis crítico.

La IA programadora no es un villano. Puede ser una herramienta poderosa. Pero cuando su implementación se convierte en una obligación métrica, cuando genera más trabajo del que ahorra, cuando se usa sin preguntar si es necesaria, entonces el riesgo no es solo técnico, es humano. Y ese riesgo no lo miden los algoritmos, lo miden las personas que cada día deciden si siguen creyendo en su trabajo.

Sobre el autor
Redacción
Ver biografía