Ayer, día 2 de diciembre, la startup francesa Mistral acaparó los focos con el anuncio oficial del lanzamiento de su modelo «Mistral 3». Una nueva generación de modelos abiertos y multimodales que pretende competir con los grandes chatbots como DeepSeek o ChatGPT.
Dentro de esta nueva familia, encontramos como opción más potente a «Mistral Large 3», un modelo frontier con arquitectura Mixture-of-Experts de 675.000 millones de parámetros, 41B de ellos activos. Pero también encontramos la serie «Ministral 3», que cuenta con tres modelos de 3B, 8B y 14B de parámetros diseñados en exclusiva para ejecutarse en dispositivos a nivel local, sin conexión a internet alguna.
Todo ello se publica bajo licencia Apache 2.0, que permite su uso comercial sin restricciones. Pero lo realmente revolucionario dentro de Mistral Large 3 es que integra capacidades multimodales de texto e imágenes con un contexto de 256.000 tokens. Todo bajo un soporte multilingüe en un único modelo de código abierto. Es decir, cifras que hasta ahora solo habían ofrecido los modelos propietarios. ¿Podrá Europa competir gracias a Mistral en esta carrera global de la IA? Por lo pronto, vamos a analizar los nuevos modelos de origen francés.
Mistral AI@MistralAIIntroducing the Mistral 3 family of models: Frontier intelligence at all sizes. Apache 2.0. Details in 🧵 https://t.co/lsrDmhW78u02 de diciembre, 2025 • 16:08
4K
245
Mistral Large 3: el modelo más potente
Mistral Large 3 es la apuesta más ambiciosa de la startup hasta el momento. De hecho, pretende penetrar en un territorio dominado tanto por OpenAI como por Google. Cuenta con una arquitectura MoE que activa 41.000 millones de parámetros dentro de un total de 675.000 millones. De hecho, este modelo ha sido entrenado desde cero en 3.000 tarjetas gráficas NVIDIA H200.
Mistral AI@MistralAIAnd Mistral Large 3, a frontier class open source MoE. https://t.co/dEUxTX2be602 de diciembre, 2025 • 16:08
420
18
Su ventana de contexto (capacidad para recabar y procesar datos) se sitúa en 256.000 tokens. Lo que nos permite trabajar con documentos extensos, bases de código amplias y conversaciones sin perder un ápice de coherencia. Pero lo que diferencia a «Large 3» de sus antecesores es, por fin, su naturaleza multimodal. Cuenta con un codificador de visión de 2.500 millones de parámetros. Lo cual permite que analicemos imágenes, gráficos y documentos de carácter visual junto a cualquier texto. Además, también cuenta con un soporte multilingüe, haciendo especial énfasis en los idiomas europeos, más allá del inglés y el chino que impera en otros modelos. Por lo tanto, Mistral pretende posicionar Large 3 como un buen asistente empresarial, sistemas RAG, análisis de documentos, generación de código y automatización de dinámicas de trabajo.
Todo ello, bajo su licencia Apache 2.0 que permite un uso comercial sin restricción alguna. Sus modelos están disponibles en su propia web oficial para que puedas descargarlo desde ya.
Ministral 3 (3B, 8B y 14B)
La serie «Ministral 3» se encarga de democratizar el acceso a una IA de calidad profesional con sus 3 variantes. A través de esta serie, Mistral ha pensado en el mundo real. Es decir, ordenadores normales, servidores pequeños y dispositivos que no siempre pueden depender de una nube.
En lugar de un modelo gigante, Mistral ofrece 3 tamaños distintos: 3.000, 8.000 y 14.000 millones de parámetros. Es decir, potencia adaptada a cada dispositivo. Cada uno de estos 3 tamaños cuenta, a su vez, con 3 variantes:
- Base: el modelo «en bruto», útil para cualquier desarrollador que quiera trabajar con él.
- Instruct: el más equilibrado para utilizar como chatbot o asistente desde primera hora.
- Reasoning: modelo ajustado para problemas de lógica, matemáticas y tareas que requieran de varios procesos de razonamiento.
Lo interesante de todos estos modelos es que están pensados para funcionar sin ningún tipo de conexión a internet. Por ejemplo, el de 3B puede ejecutarse en un portátil estándar, de capacidades medias actuales sin necesidad de una tarjeta gráfica tope de gama. Por su parte, el 14B, el mayor de estos modelos, encaja en GPUs de 24 GB, o similares a una RTX 4090 si se usan técnicas de compresión del modelo.
Esto nos permite tener un asistente de IA avanzado dentro de nuestro propio equipo, sin hacer ningún tipo de envío a la nube. Por lo tanto, puede ser bueno tanto para usuarios que valoren su privacidad como para empresas que manejen información confidencial.
