DeepSeek-V4 Preview: Contexto de un millón de tokens y mejoras para agentes

Lanzamiento de la versión preliminar de DeepSeek-V4: 1M de tokens de contexto, mejoras para agentes y pesos de código abierto

Hoy (24 de abril), DeepSeek lanza oficialmente y libera como código abierto la versión preliminar de DeepSeek-V4, su nueva serie de modelos.

DeepSeek-V4 admite hasta un millón de tokens de contexto y alcanza un rendimiento líder entre los modelos nacionales y de código abierto en capacidades de agente, conocimiento general y razonamiento. La serie se presenta en dos tamaños:

  • DeepSeek-V4-Pro — el modelo insignia, es un modelo MoE (mezcla de expertos) masivo con 1.6 billones de parámetros totales, pero solo 49B activados por pase hacia adelante; esta es la clave de su eficiencia.
  • DeepSeek-V4-Flash — la opción más rápida y rentable. Sigue el mismo diseño MoE a una escala mucho menor (284B total / 13B activo), lo que permite una inferencia más rápida y económica.
  • Ambos modelos comparten la misma ventana de contexto de 1M de tokens y son de código abierto con acceso vía API.
        
ModeloParámetrosActivaciónDatos de pre-entrenamientoLongitud de contextoCódigo abiertoServicio APIModo de acceso Web/App
deepseek-v4-pro1.6T49B33T1MModo experto
deepseek-v4-flash284B13B32T1MModo rápido

Desde hoy, puedes chatear con DeepSeek-V4 en chat.deepseek.com o a través de la aplicación oficial. La API también está activa: simplemente configura

text
1model_name
como
text
1deepseek-v4-pro
o
text
1deepseek-v4-flash
para comenzar.

Ya habíamos informado sobre las especulaciones y análisis previos al lanzamiento (consulta nuestra guía de expectativas de DeepSeek V4 y nuestro análisis técnico profundo); ahora tenemos confirmación y detalles oficiales directamente de la fuente. A continuación, cubrimos qué se ha lanzado, qué hay de nuevo y qué significa esto si estás desarrollando o evaluando modelos de IA hoy en día.


DeepSeek-V4-Pro: Rivalizando con los mejores modelos de código cerrado

deepseek v4 enhanced agentic capabilities

Capacidades de agente significativamente mejoradas. En comparación con su predecesor, DeepSeek-V4-Pro muestra una mejora drástica en tareas de agentes. En los puntos de referencia de codificación de agentes, V4-Pro lidera ahora entre todos los modelos de código abierto. DeepSeek también ha desplegado V4-Pro internamente como el agente de codificación preferido de la empresa; los comentarios de los empleados indican que la experiencia supera a Claude Sonnet 4.5, con una calidad de salida que se acerca a Claude Opus 4.6 en modo sin pensamiento (non-thinking), aunque todavía está por detrás del modo de pensamiento (thinking) de Opus 4.6.

Rico conocimiento general. DeepSeek-V4-Pro supera significativamente a otros modelos de código abierto en puntos de referencia de conocimiento general, quedándose solo ligeramente por detrás del mejor modelo de código cerrado, Gemini Pro 3.1.

Razonamiento de clase mundial. En evaluaciones de matemáticas, STEM y programación competitiva, DeepSeek-V4-Pro supera a todos los modelos de código abierto evaluados anteriormente e iguala el rendimiento de los modelos de código cerrado líderes en el mundo.

World-class inference performance


DeepSeek-V4-Flash: La opción rápida y asequible

En comparación con V4-Pro, DeepSeek-V4-Flash se queda ligeramente atrás en conocimiento general, pero ofrece un rendimiento de razonamiento comparable. Gracias a su menor número de parámetros y menores costes de activación, V4-Flash proporciona tiempos de respuesta más rápidos y precios de API más económicos.

En los puntos de referencia de agentes, V4-Flash iguala a V4-Pro en tareas más sencillas, aunque persiste una brecha en las más complejas.


Innovación arquitectónica y eficiencia extrema de contexto

The computational cost and memory capacity of DeepSeek-V4 and DeepSeek-V3.2 vary with context length.

DeepSeek-V4 introduce un novedoso mecanismo de atención que realiza una compresión a lo largo de la dimensión del token. Combinado con DSA (DeepSeek Sparse Attention), este diseño logra un rendimiento de contexto largo líder en el mundo, reduciendo drásticamente los requisitos computacionales y de memoria en comparación con los enfoques convencionales.

De cara al futuro, 1M (un millón) de tokens de contexto es el estándar para todos los servicios oficiales de DeepSeek.


Optimización especializada para casos de uso de agentes

DeepSeek-V4 ha sido ajustado y optimizado para productos de agentes populares, incluyendo Claude Code, OpenClaw, OpenCode y CodeBuddy. Se han observado mejoras en el rendimiento en la generación de código, creación de documentos y otras tareas impulsadas por agentes.

Este tipo de ajuste específico para el marco de trabajo importa más en la práctica de lo que parece. Un modelo que funciona bien de forma aislada pero se comporta de manera inconsistente dentro de un bucle de agente estructurado es difícil de desplegar de forma fiable. La decisión de tratar los principales marcos de agentes como objetivos de optimización de primera clase refleja cómo ha evolucionado el uso de la IA en producción.


Acceso a la API de DeepSeek-V4

Tanto V4-Pro como V4-Flash ya están disponibles a través de la API de DeepSeek, con soporte tanto para la interfaz OpenAI ChatCompletions como para la interfaz Anthropic, lo que significa que las integraciones existentes pueden apuntar a los modelos V4 con cambios de código mínimos. El

text
1base_url
permanece sin cambios; simplemente actualiza el parámetro
text
1model
a
text
1deepseek-v4-pro
o
text
1deepseek-v4-flash
.

Ambos modelos admiten una longitud de contexto máxima de 1M de tokens y ofrecen modos sin pensamiento (non-thinking) y con pensamiento (thinking). En el modo con pensamiento, se puede configurar un parámetro

text
1reasoning_effort
en
text
1high
o
text
1max
. Para flujos de trabajo de agentes complejos, se recomienda el modo con pensamiento con intensidad máxima. Documentación para el acceso a la API: https://api-docs.deepseek.com/zh-cn/guides/thinking_mode

⚠️ Aviso de obsolescencia: Los nombres de modelo heredados

text
1deepseek-chat
y
text
1deepseek-reasoner
se retirarán en tres meses (24 de julio de 2026). Durante el periodo de transición, se asignan a los modos sin pensamiento y con pensamiento de
text
1deepseek-v4-flash
, respectivamente. Si utilizas alguno de estos nombres en producción, planifica tu migración ahora.


Pesos de código abierto y despliegue local

Para los equipos que consideran el despliegue local o en las instalaciones, cabe señalar que los modelos a esta escala de parámetros, particularmente V4-Pro con 1.6T de parámetros totales, exigen mucho hardware. La disponibilidad de código abierto es una ventaja significativa para el cumplimiento empresarial y casos de uso de personalización, pero la mayoría de los equipos encontrarán que el acceso a la API en la nube es el punto de partida más práctico.

Qué significa realmente este lanzamiento de DeepSeek-V4

Tres cosas destacan de este lanzamiento.

En primer lugar, el compromiso de 1M de contexto es más significativo de lo que parece. DeepSeek no lo ofrece como un nivel premium, sino que es el estándar para todos los servicios oficiales. Esa es una señal de hacia dónde se dirige la frontera del código abierto y ejerce una presión silenciosa sobre todos los demás proveedores para que sigan el ejemplo.

En segundo lugar, el trabajo de optimización centrado en agentes —específicamente la adaptación de V4 para Claude Code, OpenCode y otros— refleja una madurez en la forma en que DeepSeek piensa sobre el despliegue. El rendimiento en los puntos de referencia es solo el requisito mínimo; lo que importa para la producción es el comportamiento dentro de las herramientas que los desarrolladores realmente usan.

En tercer lugar, es notable el posicionamiento competitivo honesto en relación con Claude Opus 4.6. En lugar de afirmar una superioridad general, DeepSeek ofrece una evaluación escalonada: mejor que Sonnet 4.5, acercándose a Opus 4.6 sin pensamiento, por detrás del modo con pensamiento de Opus 4.6. Esa especificidad hace que las afirmaciones sean más creíbles.

Para los desarrolladores que evalúan modelos para flujos de trabajo de agentes, procesamiento de documentos largos o tareas de razonamiento complejo, DeepSeek-V4-Pro es ahora un serio competidor de código abierto. Para tuberías optimizadas por costes o sensibles a la latencia, V4-Flash ofrece una alternativa más ligera y creíble.

Prueba DeepSeek-V4 en Atlas Cloud

Atlas Cloud es una plataforma de IA de grado de producción diseñada para desarrolladores y equipos que desean un acceso fiable y rentable a los modelos de IA líderes del mundo sin tener que gestionar la infraestructura. Con una API unificada, precios transparentes y cumplimiento de nivel empresarial (alineado con SOC 2, preparado para HIPAA), Atlas Cloud te permite centrarte en desarrollar, no en las operaciones.

DeepSeek en Atlas Cloud. Ya admitimos la familia de modelos DeepSeek, incluidos DeepSeek V3.2, V3.2 Fast, V3.2 Speciale y V3.2 Exp, disponibles hoy a través de un único punto de conexión API a precios competitivos. Los modelos de DeepSeek en Atlas Cloud están optimizados para cargas de trabajo de contexto largo y tuberías de agentes, con soporte completo de ventana de contexto y sin pérdida por cuantización. Más allá de DeepSeek, Atlas Cloud te da acceso a más de 300 modelos en todo el panorama LLM.

DeepSeek-V4 llegará pronto a Atlas Cloud. Estamos trabajando activamente en la integración de DeepSeek-V4-Pro y V4-Flash. Permanece atento al anuncio de lanzamiento y, mientras tanto, explora todo lo que ya está disponible en la plataforma.

Modelos relacionados

Más de 300 Modelos, Comienza Ahora,

Explorar Todos los Modelos

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.