China no está solo compitiendo en la carrera de la inteligencia artificial. Está reescribiendo las reglas. Y ahora, con un modelo que pesa casi 600 gigas y puede correr en dos Mac pegados, parece que acaba de dar una vuelta de tuerca que nadie esperaba.
Moonshot, una startup poco conocida fuera de sus fronteras, ha lanzado Kimi K2 Thinking, un modelo de inteligencia artificial con un billón de parámetros. Pero no es su tamaño lo que más llama la atención. Es lo que hace con él. Con una arquitectura basada en Mixture of Experts y solo 32.000 millones de parámetros activos en cada inferencia, el modelo logra un equilibrio entre potencia y eficiencia que muchos creían imposible.
Los números hablan alto. En el exigente benchmark Humanity"s Last Exam, diseñado para probar el razonamiento avanzado, Kimi K2 Thinking alcanzó un 44,9 por ciento. No es una nota de sobresaliente, pero se sitúa por delante de GPT-5 y Claude Sonnet 4.5. En BrowserComp, una prueba de navegación autónoma por internet, marcó un 60,2 por ciento. Y en desarrollo de software, particularmente en SWE y LiveCodeBench v6, se mueve a la altura de los mejores. Estamos ante un modelo que no solo compite, sino que lo hace con menos recursos y a menor costo.
Pero donde Kimi realmente deslumbra es en tareas agénticas. Es decir, cuando se le pide que actúe como un agente autónomo, tomando decisiones consecutivas. Según los desarrolladores, el modelo puede mantener un uso estable de herramientas agénticas durante entre 200 y 300 llamadas secuenciales. Eso no es solo resistencia. Es consistencia. Es inteligencia en modo persistente.
"En dicha prueba obtuvo un 93% del máximo, superando a todos sus competidores de largo" - Artificial Analysis, tras simular un agente de servicio al cliente
Y aquí viene lo más sorprendente. Mientras OpenAI o Anthropic invierten cientos de millones en entrenar sus modelos, Moonshot lo hizo por 4,6 millones de dólares. Apenas un 1 por ciento del costo de GPT-5. Este salto en eficiencia no es marginal. Es revolucionario. ¿Cómo lo lograron? Gracias a técnicas como la cuantización INT4, que reduce el tamaño y el consumo computacional sin sacrificar calidad. Es como pasar de un motor de combustión a un eléctrico de última generación más potencia, menos gasto.
El acceso al modelo también rompe esquemas. La API de Kimi K2 Thinking cuesta 0,6 dólares por millón de tokens de entrada y 2,5 por salida. Comparado con GPT-5 Chat, que cobra 1,25 y 10 dólares, o Claude Sonnet 4.5, con 3 y 15, la diferencia es abismal. Esto no es solo más barato. Es democratización en estado puro.
Y si creías que necesitabas un supercomputador, piénsalo otra vez. El modelo pesa 594 GB, sí, pero puede funcionar localmente. Con dos Mac Studio M3 Ultra conectados, se alcanzan unos 15 tokens por segundo. No es velocidad de competición, pero es funcional. Y sobre todo, es simbólico. Un modelo de vanguardia que puede vivir fuera de los grandes centros de datos.
Detrás de Moonshot está Alibaba, una de las gigantes tecnológicas chinas que, aunque desarrolla sus propios modelos como Qwen, también apuesta por financiar alternativas. Es una estrategia inteligente diversificar sin depender de un único caballo. Y mientras Occidente se aferra a modelos propietarios cerrados, China avanza con una mezcla de inversión estatal, apoyo empresarial y una cultura de innovación abierta que está empezando a dar frutos.
Hace apenas unos años, los modelos chinos parecían estar un escalón por debajo. Hoy, Kimi K2 Thinking no solo iguala a los líderes globales. Los supera en eficiencia, costo y autonomía. ¿Es el inicio de un nuevo orden en la inteligencia artificial? Tal vez. Pero lo que es seguro es que la carrera ya no se juega solo en Silicon Valley.