Imagina que cada vez que usas inteligencia artificial lo haces como si encendieras un grifo. No pagas por tener el grifo instalado, sino por los litros de agua que consumes. Esa es la visión que Sam Altman, CEO de OpenAI, dibujó recientemente en un evento en Washington DC, donde planteó un futuro en el que la IA no sea un servicio premium al que te suscribes, sino algo tan básico como la electricidad o el agua corriente. Un recurso esencial, accesible bajo demanda, facturado al final del mes según lo que hayas usado.
Una nueva forma de pagar por la inteligencia
Hoy, muchos ya pagan una suscripción mensual para usar versiones avanzadas de asistentes de IA. Servicios como ChatGPT Plus o planes similares de otras empresas funcionan como servicios de streaming pagas una cuota fija y tienes acceso ilimitado. Pero ese modelo podría estar llegando a su fin. La propuesta de Altman apunta a un sistema más granular, donde el costo se mide en "tokens" las unidades básicas de procesamiento de texto en IA y tu factura varía según cuánto escribas, preguntes o generes.
Este cambio no es solo técnico. Es un salto de paradigma. Convertir la inteligencia artificial en una commodity, un bien común y universal, implica pensarla como parte de la infraestructura básica de la sociedad. Así como no pensamos en cuántos electrones pasan por el cable cuando encendemos una luz, en el futuro podríamos interactuar con la IA sin preocuparnos por licencias o planes, solo por el uso real.
Altman advierte que sin la infraestructura adecuada, este sistema podría convertirse en una fuente de desigualdad. Si no se construyen los cimientos tecnológicos suficientes, el acceso a la inteligencia artificial podría volverse prohibitivo. "Sin la infraestructura necesaria, el precio de la inteligencia se disparará y podría convertirse en un privilegio exclusivo para los más ricos o en un recurso racionado por los gobiernos", dijo durante su intervención. La frase suena a advertencia la democratización de la IA no es automática. Depende de decisiones hoy.
La carrera por el cómputo del futuro
Para que esta visión se haga realidad, se necesita una capacidad de procesamiento inmensa. Y no estamos hablando de megas o teraflops. En la charla inaugural del CES 2026, Lisa Su, CEO de AMD, lanzó una cifra que parece sacada de ciencia ficción el mundo necesitará más de 10 yottaflops de potencia de cómputo en los próximos cinco años.
¿Qué significa eso? Un yottaflop es un cuatrillón de operaciones por segundo. La cifra que menciona Su equivale a 10.000 veces más capacidad de IA de la que existía en todo el planeta en 2022. Es como si, de repente, se pidiera construir 10.000 internet más, todas operando al mismo tiempo.
El reto no es solo técnico, sino material y energético. Dos factores están frenando esta expansión la disponibilidad de chips avanzados y el suministro de energía para alimentar los centros de datos que los alojan. No basta con diseñar modelos más inteligentes; hay que fabricar los cerebros que los ejecutan y mantenerlos encendidos. Y eso requiere fábricas, silicio, agua para refrigeración y, sobre todo, megavatios.
La infraestructura del mañana, en construcción
Ante este escenario, las grandes tecnológicas ya están moviendo ficha. Greg Brockman, presidente de OpenAI, reveló en diciembre un plan colosal una inversión conjunta de 1,4 billones de dólares en centros de datos durante los próximos ocho años. Esta cifra no es un error tipográfico. Es una apuesta sin precedentes, comparable a los grandes proyectos industriales del siglo XX.
Estos centros de datos no serán simplemente almacenes de servidores. Serán ciudades digitales, diseñadas para gestionar flujos masivos de datos, refrigerar miles de chips y conectarlos a redes de baja latencia. Su función será similar a la de las centrales eléctricas del pasado generar y distribuir un recurso esencial.
"Adelantarse al futuro, pero no creo que podamos estarlo, no importa lo ambiciosos que queramos soñar con ser ahora mismo" - Greg Brockman, presidente de OpenAI
La frase de Brockman es reveladora. Habla de una sensación de urgencia, de que incluso con miles de millones en inversión, el futuro avanza más rápido de lo que se puede construir. Es un reconocimiento de que la demanda de inteligencia artificial podría superar con creces la capacidad de respuesta.
Un modelo de negocio bajo la superficie
Tras esta transformación técnica late un modelo de negocio poderoso. Si la IA se convierte en un servicio de consumo básico, facturado por uso, las empresas que controlan la infraestructura tendrán ingresos recurrentes a escala global. No se trata ya de vender software o suscripciones, sino de monetizar cada interacción, cada consulta, cada línea de código generada.
Este sistema podría extenderse a hogares, empresas e instituciones públicas. Imagina escuelas que pagan por tokens de IA para personalizar clases, hospitales que facturan por análisis de diagnóstico asistido o ciudades inteligentes que ajustan el tráfico en tiempo real, todo bajo un esquema de consumo medido.
Pero también plantea preguntas incómodas. ¿Quién controlará el acceso? ¿Habrá regiones o países excluidos por falta de infraestructura? ¿Se crearán monopolios de cómputo tan poderosos como los de petróleo en el siglo pasado?
La promesa de una IA universal choca con la realidad de una carrera tecnológica desigual. Mientras algunos avanzan a paso de gigante, otros podrían quedarse sin conexión, sin chips, sin energía. El riesgo no es solo técnico. Es ético, económico y social. Y la decisión de construir una red global de inteligencia no puede quedar solo en manos de unas pocas corporaciones. Porque cuando la inteligencia se convierte en recurso básico, su acceso debe ser un derecho, no un privilegio.