Mistral acaba de lanzar el modelo de inteligencia artificial Mistral Medium 3.5 con una estrategia que desafía la lógica habitual del sector tecnológico.
La startup francesa ofrece un modelo de pesos abiertos descrito como denso y cuenta con 128.000 millones de parámetros activos para procesar información compleja.
La paradoja de presumir lo peor
Pedro Domingos, profesor de aprendizaje profundo en la Universidad de Washington, declaró: "Las empresas de IA convencionales presumen de cómo su modelo es mucho mejor en benchmarks. Soo Mistral presume de cómo su modelo es mucho peor".
Esta aparente contradicción oculta una apuesta por la eficiencia real frente a la optimización excesiva para pruebas estandarizadas que dominan el mercado actual.
El sistema permite configurar el nivel de razonamiento deseado mediante el parámetro reasoning_effort para ajustar el esfuerzo computacional a cada tarea específica.
Dominando la ingeniería de software
En la prueba SWE-Bench Verified, Mistral Medium 3.5 obtuvo un 77,6% de puntuación y superó claramente a competidores directos en capacidades de programación autónoma.
Qwen3.6-27b alcanzó un 72,4% en la misma prueba SWE-Bench Verified y quedó por detrás del nuevo lanzamiento francés en resolución de problemas técnicos complejos.
La empresa ha presentado agentes de programación remotos mediante Mistral Vibe CLI que permiten enviar pull requests a GitHub de forma automatizada sin intervención humana constante.
La plataforma LeChat incluye un modo llamado Work Mode para gestionar tareas multipaso de forma autónoma y reducir la carga cognitiva del desarrollador.
Una ventana de contexto masiva
El modelo dispone de una ventana de contexto de 256.000 tokens que facilita el análisis de documentos extensos y bases de código completas en una sola sesión.
Este volumen de datos procesables sitúa al sistema en una posición privilegiada para aplicaciones empresariales que requieren memoria a largo plazo.
El coste de la inteligencia europea
La API de Mistral Medium 3.5 tiene un coste de 1,50 dólares por millón de tokens de entrada y 7,5 dólares por millón de tokens de salida.
GLM-5.1 cobra 1,4 dólares por millón de tokens de entrada y 4,4 dólares por millón de tokens de salida con una estructura de precios más competitiva en la generación de texto.
Kimi K2.5 cobra 0,5 dólares por millón de tokens de entrada y 2,8 dólares por millón de tokens de salida mientras que Kimi K2.6 cobra 0,95 dólares por millón de tokens de entrada y 4 dólares por millón de tokens de salida.
El modelo se distribuye bajo una licencia MIT modificada en lugar de la Apache 2.0 tradicional para proteger su ecosistema comercial.
La licencia autoriza uso comercial o no comercial excepto para empresas con ingresos altos y establece barreras claras para los gigantes tecnológicos.
La compañía ha conseguido recientemente financiación para crear centros de datos en Europa y reforzar su soberanía tecnológica frente a las potencias asiáticas y americanas.