Cuando Sundar Pichai habla de "agentes verdaderamente agentivos", uno no sabe bien si está escuchando ciencia ficción o el nuevo manual de operaciones de una empresa tecnológica. Pero lo segundo es lo que ocurre. El CEO de Google no estaba presentando un prototipo en Cloud Next 2026, sino describiendo una realidad ya en marcha sistemas de inteligencia artificial que no solo sugieren líneas de código, sino que toman decisiones, resuelven problemas y ejecutan tareas complejas con autonomía creciente. Y lo más sorprendente no es que existan, sino a qué velocidad se han integrado en el corazón del desarrollo tecnológico.
El código ya no es solo humano
Un dato llama especialmente la atención el 75 % de todo el código nuevo ya está siendo generado por inteligencia artificial y aprobado por ingenieros. Solo un año antes, en otoño, esa cifra era del 50 %. El salto no es incremental; es exponencial. Y no se trata de funciones simples o comentarios automáticos. Hablamos de módulos funcionales, arquitecturas de sistemas, migraciones de infraestructuras enteras. En uno de los casos presentados, una migración compleja el tipo de proyecto que antes requería meses de trabajo coordinado se completó seis veces más rápido gracias a la colaboración entre agentes de IA y equipos humanos. Eso no solo cambia la productividad; cambia la naturaleza del trabajo del programador.
Richard Seroter, director sénior de Google Cloud, lo define con contundencia al señalar que esta tecnología es "fundamental en esta área". No dice "útil" ni "emergente" dice fundamental. Y es que ya no se trata de elegir si usar o no IA en desarrollo; es que quienes no lo hagan quedarán obsoletos. La pregunta ya no es si la máquina puede programar, sino qué parte del proceso humano seguirá siendo exclusivamente humana.
La paradoja del desarrollador moderno
Y aquí entra una contradicción incómoda. A pesar de que el código generado por IA se ha vuelto omnipresente, el 96 % de los desarrolladores reconoce que no confía plenamente en él. Es un dato revelador, extraído de una encuesta de Sonar a principios de este año. Hay una brecha enorme entre lo que se usa y lo que se cree. Peor aún más de la mitad, el 52 %, no revisa siempre ese código en busca de errores antes de integrarlo. ¿Cómo es posible que desconfiemos tanto y, aun así, lo incorporemos sin revisión? Quizá porque la presión por entregar rápido supera el instinto crítico. O quizá porque, lentamente, estamos delegando la vigilancia en otros sistemas automatizados, creando una cadena de confianza ciega.
Hace apenas unos años, en 2023, solo el 6 % del código en producción provenía de herramientas de IA. En el último informe, esa cifra ha saltado al 42 %. Y se prevé que para 2027 alcance el 65 %. En menos de una década, el programador humano habrá pasado de ser el autor principal a ser, en muchos casos, un corrector de estilo de una inteligencia que ya piensa en bucles, no en líneas.
"Estamos viendo una transformación no solo técnica, sino cultural. Los ingenieros ya no empiezan desde cero; empiezan desde lo que la IA les entrega" - Sundar Pichai, CEO de Google
Esta metamorfosis tiene consecuencias profundas. La educación en programación ya no puede centrarse solo en sintaxis o algoritmos; debe enseñar a supervisar, auditar, entender el sesgo y la lógica opaca de una IA. Las empresas no contratarán solo por habilidad técnica, sino por criterio quién sabe cuándo detenerse, cuándo desconfiar, cuándo reescribir desde cero. Y quizá, en el futuro, no sea el humano quien revise al robot, sino al revés un agente IA evaluando si el código del programador cumple con los estándares de eficiencia y seguridad que la propia máquina ha aprendido a priorizar.
Asistimos a una era en la que el software se construye cada vez más entre humanos y máquinas, no solo con teclados, sino con diálogos. Y aunque aún dudamos de lo que generan, ya no podemos imaginar el trabajo sin ellos. Eso no es progreso es coevolución. Y a este ritmo, dentro de muy poco, no será raro que un desarrollador diga "Yo no programo. Colaboro con quien sí sabe".