El laboratorio chino de inteligencia artificial DeepSeek ha lanzado dos versiones preliminares de su último modelo de lenguaje grande. Búsqueda profunda V4una actualización muy esperada del modelo V3.2 del año pasado y el modelo de razonamiento R1 que lo acompaña y que arrasó en el mundo de la IA.
La compañía dice que DeepSeek V4 Flash y V4 Pro son modelos de combinación expertos con ventanas de contexto de 1 millón de tokens cada una, suficiente para permitir el uso de grandes bases de código o documentos en las indicaciones. El enfoque de mezcla experta solo implica activar una cierta cantidad de parámetros por tarea para reducir el costo de inferencia.
El modelo Pro tiene un total de 1,6 billones de parámetros (49 mil millones activos), lo que lo convierte en el modelo de peso abierto más grande disponible, superando al Kimi K 2.6 de Moonshot AI (1,1 billones), M1 MiniMax (456 mil millones) y más del doble de DeepSeek V3.2 (671 mil millones). El V4 Flash más pequeño tiene 284 mil millones de parámetros (13 mil millones activos).
DeepSeek dice que ambos modelos son más eficientes y eficaces que DeepSeek V3.2 debido a mejoras arquitectónicas y casi “cierran la brecha” con los modelos líderes actuales, tanto abiertos como cerrados, en términos de puntos de referencia razonables.
La compañía afirma que su nuevo modelo V4-Pro-Max supera a sus homólogos de código abierto en los puntos de referencia de razonamiento y supera a GPT-5.2 y Gemini 3.0 Pro de OpenAI en algunas tareas. En los puntos de referencia de la competencia de codificación, DeepSeek dijo que el rendimiento de ambos modelos V4 era “comparable al GPT-5.4”.
Sin embargo, estos modelos parecen estar ligeramente por detrás de los modelos líderes en pruebas de conocimiento, especialmente el GPT-5.4 de OpenAI y el último Gemini 3.1 Pro de Google. Este retraso sugiere “una trayectoria de desarrollo que sigue modelos de última generación de aproximadamente 3 a 6 meses”, escribió el laboratorio.
Tanto V4 Flash como V4 Pro solo admiten texto, a diferencia de la mayoría de los otros productos de código cerrado, que ofrecen soporte para comprender y producir audio, video e imágenes.
Evento tecnológico
San Francisco, California
|
13-15 de octubre de 2026
En particular, el DeepSeek V4 es mucho más asequible que cualquiera de los modelos líderes disponibles en la actualidad. El modelo V4 Flash más pequeño cuesta $0,14 por millón de tokens de entrada y $0,28 por millón de tokens de salida, superando al GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini y Claude Haiku 4.5. Mientras tanto, el modelo V4 Pro más grande cuesta $0,145 por millón de tokens de entrada y $3,48 por millón de tokens de salida, superando también al Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 y GPT-5.4.
El lanzamiento se produce un día después de que EE.UU. acusado China está robando la propiedad intelectual del laboratorio estadounidense de inteligencia artificial a escala industrial utilizando miles de cuentas proxy. La propia DeepSeek ha sido acusada por Anthropic y OpenAI de “destilar”, esencialmente copiar, sus modelos de IA.
Cuando compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta nuestra independencia editorial.



