xAI ha presentado Grok 4 Fast, una versión más rápida y barata de su modelo más potente hasta la fecha: Grok 4. Sin embargo, ha sorprendido por su rendimiento. Y es que ofrece un rendimiento que en comparación con su predecesor, tiene un coste de un 98% menos.
Según el comunicado de la propia compañía de xAI en su web el pasado 19 de septiembre, la clave de su ligereza y rendimiento se encuentra en una arquitectura que une los modos de «razonamiento» y modo «ligero» bajo un solo modelo. Es decir, que vamos a poner en funcionamiento tanto las tareas más complejas como las respuestas más inmediatas sin necesidad alguna de cambiar de motor.
Pero lo más importante aún es que llega con una ventana de contexto de 2 millones de tokens. Pensada para manejar mayor información. Es decir, documentos largos, historiales extensos o trabajos de investigación con una mayor estabilidad. Lo mejor de todo es que este nuevo Grok-4-Fast pone sus avances al servicio de todos los usuarios, incluidos los de nivel gratuito. Y es que ya se ofrece en web, apps móviles o API. La cuestión es si xAI conseguirá, con este movimiento, competir en relación de calidad precio frente a los gigantes del mercado: GPT-5, Gemini o Claude.
Las novedades más importantes de Grok 4 Fast
El nuevo modelo de la empresa de IA bajo el liderazgo de Elon Musk busca ahorrar costes sin hundir la precisión. De hecho, la propia xAI afirma que logra resultados comparables a los de Grok 4, pero reduce hasta un 40% los «thinking tokens» necesarios. Esto se traduce en una caída de hasta un 98% del coste para obtener el mismo rendimiento en pruebas de referencia, según ha comunicado la propia compañía.
En la práctica, estos movimientos deberían traducirse en respuestas más rápidas por menos dinero. Especialmente si hablamos de su uso mediante API o en planes que tenga límite de tokens. Pero lo más importante de este modelo es su ventana de contexto de 2 millones de tokens. El número de tokens es proporcional a la cantidad de información que la IA «memoriza» para trabajar con ella. De hecho, una ventana de 2 millones de tokens permite, por ejemplo:
- Procesar una novela de 500 páginas de una sola vez para analizar archos narrativos y coherencia.
- Revisar bases de código de hasta 100.000 líneas para detectar errores complejos.
- Analizar más de 200 horas de transcripciones para identificar decisiones y patrones.
De esta manera, es muy útil para trabajos con múltiples documentos, conversaciones largas o análisis legales y técnicos. En contextos menores, cuando se trabaja con grandes cantidades de información, es usual que se tenga que «trocear» la información para no chocar con el límite de la propia IA.
Además, con su arquitectura unificada, es capaz de intercambiar un razonamiento profundo con respuestas ligeras. Una tendencia que ya vemos en modelos como GPT-5. El modelo decide cuándo «pensar más» y cuándo devolver resultados inmediatos, dependiendo de la simplicidad de la tarea. Este avance posicionar a Grok 4 Fast muy por delante de modelos como GPT-5, con 256.000 tokens, o Claude 3.5, que alcanza los 200.000 tokens.
| Modelo | Tokens de Contexto | Diferencia vs Grok | Fuente |
|---|---|---|---|
| Grok 4 Fast (xAI) | 2,000,000 | Referencia | xAI Model Card |
| Gemini 2.5 (Google) | 1,000,000 | -50% | Google AI Blog |
| GPT-5 (OpenAI) | 256,000 | -87.2% | OpenAI Technical Report |
| Claude 3.5 (Anthropic) | 200,000 | -90% | Anthropic Documentation |
Rendimiento y disponibilidad
Dentro de comparativas públicas como LMArena, Grok-4-Fast aparece en posiciones muy elevadas para tareas de búsqueda, e igualmente bien colocado en tareas de texto. Lo que quiere decir que los recortes no han venido de una caída drástica de calidad para sus usos más comunes.
En el gráfico, publicado por la propia web de x.ai, podemos apreciar los distintos modelos de inteligencia artificial bajo dos variables: su capacidad de inteligencia y su coste de ejecución. En este caso, según los resultados de dicho análisis, Grok 4 Fast es la que mejores resultados obtiene en el área ideal (cuadrado marrón más claro), seguido de DeepSeek V3.1 (Thinking) o Kimi K2 0905.
Más allá de benchmarks, xAI lo liberará de manera escalonada para todos los usuarios en web y apps móviles, así como también para usuarios de plataformas como OpenRouter o Vercel AI Gateway.
| Característica | Valor | Impacto Directo | Fuente |
|---|---|---|---|
| Ventana de Contexto | 2,000,000 tokens | Análisis de documentos masivos | Model Card |
| Reducción de Coste | 98% vs Grok 4 | Accesibilidad para desarrolladores y usuarios | Comunicado xAI |
| Reducción 'Thinking Tokens' | 40% | Respuestas más rápidas y eficientes | Comunicado xAI |
| Arquitectura | Unificada (Razonamiento/Ligero) | Versatilidad sin cambiar de modelo | Model Card |
| Disponibilidad | Web, Apps y API (Gratuito) | Democratización del acceso a IA avanzada | Anuncio oficial |
