Qwen3.5-9B vence a un modelo 13,5 veces mayor en GPQA sin necesitar un supercomputador

“Qwen3.5-4B era tan potente como Qwen3-Next-80B” según benchmarks citados por Paul Couvert

04 de marzo de 2026 a las 18:07h
Qwen3.5-9B vence a un modelo 13,5 veces mayor en GPQA sin necesitar un supercomputador
Qwen3.5-9B vence a un modelo 13,5 veces mayor en GPQA sin necesitar un supercomputador

Los modelos de inteligencia artificial de gran tamaño dominaron las conversaciones durante años. Gigantes con decenas o cientos de miles de millones de parámetros que necesitaban centros de datos enteros para funcionar. Pero ahora, una nueva corriente está cambiando las reglas del juego la era de los modelos pequeños pero inteligentes. Y en este movimiento, Alibaba no solo ha entrado, sino que parece estar marcando el ritmo.

Una familia de pequeños gigantes

La compañía china ha presentado la familia Qwen 3.5, una serie de modelos de código abierto que desafían las expectativas. Están diseñados con un enfoque opuesto al de los behemoths de IA en lugar de crecer sin límite, se han optimizado para ser rápidos, eficientes y accesibles. La familia incluye cuatro variantes 0.8B, 2B, 4B y 9B. Esos números indican miles de millones de parámetros, la unidad que mide la complejidad de un modelo. El más pequeño tiene 800 millones, el más grande 9.000 millones.

Lo llamativo no es su tamaño, sino su rendimiento. El modelo Qwen3.5-9B, por ejemplo, compite directamente con gpt-oss-120B, un modelo occidental 13,5 veces más grande. Y no solo compite lo supera en pruebas de razonamiento como GPQA, que evalúa conocimientos científicos avanzados. Un modelo más ligero que rinda más que uno mucho más pesado suena a contradicción. Pero aquí la clave está en la arquitectura.

La arquitectura que rompe el muro de memoria

Alibaba ha introducido una "Arquitectura Híbrida Eficiente" que combina dos técnicas avanzadas las Gated Delta Networks y la Mixture-of-Experts (MoE). Esta combinación permite al modelo tomar decisiones más inteligentes sobre qué parte del conocimiento activar en cada momento, evitando el "muro de memoria" que suele limitar a los modelos pequeños.

Es como si, en lugar de llevar toda una biblioteca en el bolsillo, el modelo supiera exactamente qué libro abrir, y qué página leer, en cada instante. Esto no solo ahorra recursos, sino que acelera la respuesta. Y lo hace sin sacrificar precisión.

Inteligencia que cabe en un móvil

Uno de los avances más prácticos es el tamaño reducido del modelo Qwen3.5-4B. En su versión cuantizada de 4 bits, ocupa menos de 3 GB. Esta ligereza lo convierte en uno de los primeros modelos capaces de funcionar directamente en un teléfono móvil sin conexión.

Imagina tener un asistente de IA en tu bolsillo que no necesita enviar tus preguntas a un servidor remoto. Todo se procesa en el dispositivo. Tus conversaciones, tus notas, tus decisiones, quedan en casa. Los chats son privados, seguros y rápidos. Esto no es solo un avance técnico, es un cambio de paradigma en la relación entre personas y máquinas.

Pruebas que hablan por sí solas

En el benchmark MMMU-Pro, especializado en razonamiento visual, el modelo Qwen3.5-9B superó a Gemini 2.5 Flash Lite, uno de los modelos más eficientes de Google. Y en GPQA, un examen de doctorado en ciencias, logró resultados mejores que gpt-oss-120B.

Las implicaciones son claras no hace falta tener un supercomputador para tener acceso a una inteligencia artificial potente. Estos modelos pueden integrarse en navegadores, en aplicaciones locales, en dispositivos con recursos limitados. Y todo esto con una ventaja clave la autonomía.

El contrapunto occidental

Mientras en China se apuesta decididamente por modelos pequeños y eficientes, en Occidente el movimiento es más tímido. Google parece ser el único gigante interesado, con su modelo Gemma 3 270M lanzado en agosto de 2025. Microsoft también dio un paso con Phi-4 en diciembre de 2024. OpenAI, por su parte, lanzó sus versiones abiertas gpt-oss-20B y gpt-oss-120B, también en agosto de 2025.

Pero hay una diferencia de enfoque. Mientras los modelos occidentales siguen apuntando a capacidades generales con estructuras grandes, Alibaba y otras compañías chinas están rediseñando la inteligencia desde dentro más ágil, más local, más humana.

¿Un modelo de 4.000 millones tan bueno como uno de 80.000 millones?

Paul Couvert, divulgador de inteligencia artificial, lanzó una afirmación llamativa en la red social X

"al menos según estos benchmarks Qwen3.5-4B era tan potente como Qwen3-Next-80B-A3B-Thinking"

Si esto se confirma, estaríamos ante un salto cualitativo. Un modelo 20 veces más pequeño que logre resultados comparables a uno masivo no solo es eficiente es revolucionario. Habla de un futuro donde la inteligencia artificial no dependa de la nube, ni de las grandes corporaciones, sino que esté al alcance de cualquier desarrollador, cualquier ciudadano, cualquier dispositivo.

La IA del futuro ya no será solo grande, será pequeña

La carrera por los modelos más grandes parece estar llegando a su límite. El consumo energético, el costo y los problemas de privacidad están forzando una reevaluación. Y en este escenario, los modelos pequeños emergen como la alternativa madura, responsable y, paradójicamente, más avanzada.

Alibaba no solo ha lanzado nuevos modelos. Ha lanzado una nueva visión la inteligencia artificial no tiene que ser enorme para ser poderosa. Y si todo esto puede correr en tu portátil, en tu móvil, sin que tus datos salgan de tu dispositivo, entonces estamos ante algo más que tecnología. Estamos ante una promesa de libertad digital.

Sobre el autor
Redacción
Ver biografía