Seis clientes aportaron el 85% de los ingresos trimestrales de NVIDIA hace solo un año y medio

"La soberanía tecnológica no es un eslogan es una necesidad geopolítica"

30 de marzo de 2026 a las 17:27h
Seis clientes aportaron el 85% de los ingresos trimestrales de NVIDIA hace solo un año y medio
Seis clientes aportaron el 85% de los ingresos trimestrales de NVIDIA hace solo un año y medio

En los centros de datos que alimentan los chatbots, los modelos de lenguaje y los avances más espectaculares de la inteligencia artificial, hay un hilo común casi todos corren sobre hardware fabricado por NVIDIA. Durante años, la empresa ha sido la piedra angular del auge de la IA, el motor silencioso que acelera desde el entrenamiento de gigantescos modelos hasta las respuestas en tiempo real que damos por sentadas al interactuar con una inteligencia artificial. Pero ahora, mientras las grandes tecnológicas acumulan sus GPU como si fueran reservas estratégicas, soplan vientos de cambio. El monopolio tecnológico empieza a agrietarse, no por falta de demanda, sino por el deseo de control.

El imperio de las GPU

Microsoft, Amazon, Google y Meta han comprado cientos de miles de GPU de NVIDIA. No es una exageración es una carrera por el poder bruto de cómputo. Estas tarjetas gráficas, originalmente diseñadas para videojuegos, se convirtieron por casualidad en las mejores herramientas para procesar las operaciones matriciales que alimentan el aprendizaje automático. Hoy, son el oro negro de la IA. La demanda ha sido tan abrumadora que NVIDIA se ha convertido en el mejor cliente de TSMC y Samsung, los dos gigantes asiáticos que fabrican los chips más avanzados del mundo. Sin ellos, no hay revolución de IA.

Empresas como OpenAI, Anthropic, Mistral y xAI apostaron muy fuerte desde el principio por NVIDIA. No tenían alternativa. Sus modelos necesitan miles de GPU interconectadas para funcionar. Pero incluso Apple, que tradicionalmente ha preferido el control total de su hardware, tuvo que alinear su estrategia con Amazon, integrándose en este ecosistema tecnológico dominado por los aceleradores de NVIDIA. La dependencia era inevitable. Hasta ahora.

El fin del monopolio diversificación y soberanía tecnológica

Las mismas empresas que hoy compran GPU a granel también están trabajando a contrarreloj para liberarse. Amazon, Google y Meta tienen programas en marcha para desarrollar sus propios chips de inferencia, la fase de la IA que procesa la petición del usuario para dar una respuesta. No requiere tanta potencia como el entrenamiento, pero sí eficiencia, baja latencia y escalabilidad. Es el frente más inmediato de la batalla por la independencia tecnológica. Porque, en el fondo, no se trata solo de rendimiento se trata de no depender de un solo proveedor, especialmente cuando este concentrado.

Y esa concentración existe. Hace apenas un año y medio, seis clientes representaban el 85% de los ingresos de NVIDIA en un solo trimestre. Ese nivel de dependencia genera riesgos estratégicos. Si NVIDIA sube precios, si hay escasez de chips, si cambian las alianzas geopolíticas, el ecosistema entero puede tambalearse.

Alternativas en movimiento

En este escenario, AMD ha ganado terreno. Tras años intentándolo, alcanzaron hace poco un contrato con Meta para suministrar aceleradores de IA. No es un detalle menor es una señal de que el mercado empieza a diversificarse. Mientras, Samsung también sale beneficiada, no tanto por fabricar los chips como por su liderazgo en memorias avanzadas, un componente crítico en los sistemas de IA de alto rendimiento.

En China, la historia es aún más compleja. Bajo el peso de los vetos estadounidenses, Huawei ha forjado una alianza estratégica con SMIC para desarrollar chips avanzados sin depender de Occidente. Según Huawei, ya tienen chips para inferencia más potentes que los H20 de NVIDIA, y cuentan con un supercluster dedicado al entrenamiento de modelos. Es un desafío directo, aunque aún limitado por cuestiones de escalabilidad y software. Cambricon busca ser otra alternativa local, mientras empresas como Alibaba y ByteDance también entran al diseño de chips propios. La soberanía tecnológica no es un eslogan es una necesidad geopolítica.

El nuevo campo de batalla la inferencia

Si el entrenamiento de modelos fue la primera frontera de la IA, la inferencia es la siguiente. Es donde interactuamos todos los días al pedirle a un asistente que escriba un correo, al generar una imagen con IA, al recibir recomendaciones en una app. Es más masivo, más frecuente, y requiere una infraestructura diferente. Aquí es donde NVIDIA está apostando con fuerza, incorporando soluciones como Groq, una empresa especializada desde el principio en aceleradores de baja latencia para inferencia.

NVIDIA tiene Groq, un acelerador de inferencia diseñado para trabajar junto a Vera Rubin, su próxima generación de plataformas. El objetivo es claro entrar en el pastel de 50.000 millones de dólares que representa el mercado de inferencia en China. Pero no será fácil. Allí, las empresas locales ya están avanzadas, y Occidente enfrenta barreras políticas y técnicas. Además, incluso dentro del propio ecosistema occidental, las cosas cambian OpenAI ha firmado un acuerdo con Broadcom para que le suministre chips, y xAI, la empresa de Elon Musk, no solo tiene sus propios chips, sino que planea abrir fábricas. El control total de la cadena es el nuevo sueño.

¿Un futuro más diverso?

El dominio absoluto de NVIDIA no ha terminado, pero está cambiando de forma. Sus soluciones siguen siendo las más desplegadas, las más maduras, las que mejor funcionan con los frameworks existentes. Pero el mercado del hardware para IA puede pasar de una posición de dominio absoluto a otra mucho más diversificada. No será una caída, sino una fragmentación. La innovación ya no viene solo de un solo fabricante, sino de múltiples frentes desde los gigantes tecnológicos que diseñan sus propios chips hasta las startups que apuestan por arquitecturas diferentes, y desde China hasta Silicon Valley.

Lo que está en juego no es solo quién vende más chips, sino quién controla el futuro de la inteligencia artificial. Y mientras los data centers siguen encendidos, procesando billones de operaciones por segundo, una pregunta flota en el aire ¿quién tendrá el poder de decidir cómo piensan las máquinas?

Sobre el autor
Redacción
Ver biografía