Durante el pasado mes de mayo, Google presentó una renovación importante de sus modelos de IA Gemini. En concreto, se anunció en su evento I/0 2025. Desde entonces, surgieron dos nuevos modelos: Pro, diseñado para las tareas más complicadas, y Flash, que ofrece equilibrio entre velocidad y rendimiento. Pero ahora llega Flash-Lite.
Flash-Lite supone un avance tanto en agilidad como en economía. Está especialmente diseñado para cargas de trabajo pesadas. Para que te hagas una idea, Gemini 2.5 Pro ya es el rey de los benchmarks de LMArena y WebDev Arena, pues Flash-Lite reduce hasta un tercio el coste de procesamiento durante su uso. Pero debes saber que ahora ambos los puedes utilizar de manera gratuita desde la propia plataforma de Gemini.
Los tres se encuentran oficialmente disponibles desde Google AI Studio, Vertex AI y dentro de la propia App de Gemini. Aparte de ello, se han incluido algunas mejoras como pueden ser la salida de audio nativa, se ha mejorado las ventanas de contexto con hasta un millón de tokens, y además ha traído nuevas herramientas para desarrolladores. Como puede ser, por ejemplo, resúmenes internos de «pensamientos».
Google sigue dando más guerra que nunca a OpenAI, Microsoft, y a todos los competidores que se pongan por delante, y esto es precisamente otro avance más en su frente de batalla.
Gemini 2.5 Pro, Flash y Flash-Lite
Google está poniendo toda la carne en el asador con Gemini 2.5. Pero hemos de diferenciar correctamente cada uno de sus modelos:
Gemini 2.5 Pro
La variante Pro es el buque insignia de la IA de Google ahora mismo. Es el mejor para cuestiones de razonamiento completo, matemáticas, programación y análisis multimodal. De hecho, lidera los rankings de benchmark con una puntuación de 1415 ELO tanto en codificación como razonamiento. Y por si fuera poco, incorpora el modo «Deep Think» o «Pensamiento profundo». Lo que le permite bajar varias hipótesis antes de dar una respuesta. Además, se le ha añadido nuevas capacidades, como la salida de audio nativa o el reconocimiento multimodal.
Gemini 2.5 Flash
El modelo Flash se lanzó también tras la conferencia I/O de Google, pero este se especializó en obtener la máxima eficiencia posible. De hecho, consume un 20-30% menos de tokens para llevar a cabo sus tareas, pero priorizando en la medida de lo posible la precisión.
Gemini 2.5 Flash-Lite
Flash-Lite ha llegado para aligerar Flash, lo cual es como aligerar el aire. Pero sí que lo hace con éxito. De hecho, reduce hasta un tercio el coste de Flash para tareas textuales, de imágenes o de vídeo. A diferencia de sus dos hermanos mayores, Flash Lite solo está en vista preliminar dentro de Google AI Studio y Vertex AI. Este nuevo modelo ha superado en programación, matemáticas y razonamiento a su predecesor, que es 2.0 Flash Lite. Y no solo eso, sino que además contesta más rápido para tareas más complejas, como pueden ser traducción o clasificación de factores.

Herramientas para desarrolladores
Todos y cada uno de estos tres modelos incluyen mejores como los llamados «resúmenes de pensamiento» o el control sobre el consumo de recursos. Además, los desarrolladores que así lo vean bien, pueden integrarlos desde Google AI Studio o Vertex AI. Pero también puedes usar Gemini Code Assist desde el propio VSCode o JetBrains.