La gran IA procedente de China que asombró al mundo a principios de este 2025 está de vuelta. Y en esta ocasión, lo hace con más potencia que nunca. Con el lanzamiento de DeepSeek V3.2 y su variante V3.2-Speciale, desde DeepSeek vuelven a demostrar que un modelo abierto y sin restricciones puede ser más potente que cualquier modelo propietario.
Mientras que OpenAI, Google o Anthropic apuestan por una carrera que parece no tener fin de modelos cerrados, la empresa china está demostrando que puede superar en rendimiento a esas IA multimillonarias. Sus propios creadores la describen como la IA del día a día perfecta, que equilibra el razonamiento de GPT-5 con una gran velocidad práctica para el mundo real.
También llega con su variante especial, o «Speciale», que lleva sus capacidades de razonamiento al extremo, hasta tal punto de que ha logrado la medalla de oro en la Olimpiada Matemática Internacional de 2025. Junto a ello, también ofrece competencias de programación de nivel mundial (IOI, ICPC) y rivaliza directamente con el razonamiento de Gemini 3.0.
Disponibilidad de DeepSeek V3.2
DeepSeek V3.2 ya se encuentra disponible a través de tres canales de manera simultánea.
En primer lugar, lo encontramos en la app web oficial de DeepSeek, pero también disponemos de ella en interfaz móvil y, de igual manera, mediante API de pago. Hemos de saber que es un modelo totalmente open source que cuenta con licencia MIT, lo que permite descargarlo desde Hugging Face y ejecutarlo en nuestro propio PC sin restricción comercial alguna. Ahora bien, que sea gratis no quiere decir que sea ejecutable por cualquier PC.
Para su uso local, el modelo cuenta con 671B de parámetros locales en arquitectura MoE, siempre con 37B de parámetros activos por inferencia. En otras palabras menos técnicas: si quieres ejecutar V3.2 localmente, necesitarás aproximadamente 380-400 GB de VRAM combinada (GPU y RAM). Aun así, con técnicas de offloading, es posible ejecutarlo en 24 GB de GPU y 128 de RAM, aunque con una velocidad muy reducida. Por su parte, la versión Speciale se encuentra disponible solo mediante API hasta el 15 de diciembre de este mismo año (dentro de 13 días). Tras esa fecha, su uso dependerá del feedback de la comunidad.
Contexto, multimodalidad y razonamiento
DeepSeek V3.2 soporta una ventana de contexto de 128.000 tokens, que equivale a unas 96.000 palabras. Por lo que podremos procesar documentos largos, código extenso y analizar conversaciones largas sin perder un ápice de contexto. Aun así, hemos de tener en cuenta que es un modelo parcialmente multimodal. V3.2 está entrenado para procesar texto, código y soporta también la interpretación de imágenes y gráficos. Lo mismo para su modelo Speciale. En términos de rendimiento, la variante Speciale ha superado a GPT-5 High en benchmarks como HMMT 2025 y rivaliza directamente con Gemini 3.0 Pro:
Licencia, precio y disponibilidad técnica
DeepSeek V3.2 es plenamente gratuita bajo su licencia MIT, lo que permite que lo utilicemos comercialmente, modifiquemos y distribuyamos sin restricciones. Aun así, su API oficial tiene un coste muy reducido. Y es que nos vamos hasta 0.07-0.33 dólares por millón de tokens en input y hasta 1,3 dólares por millón de tókenes de output. Speciale utiliza esta misma tarifa, pero genera 2-3 veces más tokens por su razonamiento extremo.
El modelo cuenta con un modo «thinking» donde puede generar pasos de razonamiento antes de la respuesta final, lo que mejora su precisión en cuestiones como matemáticas o programación avanzada. Y para los desarrolladores, DeepSeek cuenta con kernels CUDA, código de inferencia al completo y soporte multiplataforma. Esto facilita el despliegue local de la forma más optimizada y potente posible.
DeepSeek V3.2 es la demostración de que el software libre sigue imponiéndose a modelos multimillonarios, y que el presupuesto tiene una relación limitada con el resultado final.
