DeepSeek lanzó versiones preliminares de su modelo V4 el viernes, lanzando dos variantes de código abierto que la compañía afirma pueden igualar a los principales sistemas cerrados de Google, OpenAI y Anthropic. La startup con sede en Hangzhou está dando a los desarrolladores acceso gratuito para descargar, ejecutar y modificar el código, pero varias barreras estructurales limitan quién puede explotar plenamente esa libertad. El lanzamiento llega bajo una nube de acusaciones de propiedad intelectual y restricciones de hardware que complican su atractivo más allá de las fronteras de China.
El lanzamiento de DeepSeek V4 de código abierto: dos modelos, una gran afirmación
🚀 DeepSeek-V4 Preview is officially live & open-sourced! Welcome to the era of cost-effective 1M context length.
🔹 DeepSeek-V4-Pro: 1.6T total / 49B active params. Performance rivaling the world’s top closed-source models.
🔹 DeepSeek-V4-Flash: 284B total / 13B active params.… pic.twitter.com/n1AgwMIymu— DeepSeek (@deepseek_ai) April 24, 2026
Según South China Morning Post, DeepSeek lanzó dos variantes distintas: V4-Pro, con 1,6 billones de parámetros, el modelo más grande de la compañía según esa métrica, y el más ligero V4-Flash con 284 mil millones de parámetros. Ambas versiones vienen con una ventana de contexto de 1 millón de tokens, una característica crítica que determina cuánta información puede procesar un modelo en una sola sesión.
DeepSeek describe la eficiencia de la ventana de contexto como lograda a un costo “líder mundial”, una afirmación que la compañía ha hecho antes y que ha atraído tanto admiración como escepticismo de investigadores occidentales. Al igual que su predecesor V3, V4 es totalmente de código abierto: los desarrolladores pueden descargar los pesos, ejecutar los modelos localmente y adaptarlos para sus propias aplicaciones.
Como CNBC señala, esto marca más de un año desde que el modelo de razonamiento R1 de DeepSeek sacudió los mercados tecnológicos globales con su eficiencia de costos reportada, a pesar de estar construido con muchos menos recursos que los sistemas comparables de EE. UU. V4 se posiciona como el seguimiento completo de ese momento.
Fortalezas concretas — y dónde el modelo todavía se queda corto
Según Al Jazeera, DeepSeek afirma que V4-Pro supera a todos los modelos de código abierto rivales en puntos de referencia de matemáticas y codificación. El único sistema que supera es el modelo propietario de Google, Gemini 3.1-Pro, lo que hace que V4-Pro sea el modelo disponible de código abierto mejor clasificado según esas medidas, al menos en las pruebas reportadas por la compañía.
DeepSeek también destaca mejoras en el razonamiento y lo que llama capacidades “agentes”, la capacidad del modelo para llevar a cabo tareas complejas y de varios pasos de manera autónoma sin intervención humana en cada etapa, como Greenwich Time explica. Esto posiciona a V4 directamente contra herramientas como ChatGPT Codex y Claude Code, donde los flujos de trabajo de agentes centrados en la codificación han impulsado una fuerte adopción.
Lian Jye Su, analista jefe de la firma de investigación tecnológica Omdia, dijo a Greenwich Time: “Según los resultados de los puntos de referencia, parece que DeepSeek V4 va a ser muy competitivo frente a sus rivales estadounidenses”. Sin embargo, esa evaluación viene con una advertencia: quién puede desplegarlo legal y prácticamente.
Criticamente, lo que DeepSeek lanzó el viernes es una previsualización, no una compilación final de producción. Los equipos empresariales que evalúan V4 para su integración en productos o flujos de trabajo lo están haciendo sin una garantía de estabilidad, una limitación significativa para cualquier organización que necesite un comportamiento de API confiable a escala.
Las presiones externas que remodelan el panorama
Poco después de que DeepSeek publicara V4, Huawei anunció “pleno apoyo” para los modelos en toda su línea de chips Ascend, según South China Morning Post. Ese respaldo es significativo dentro de China, donde el acceso al hardware de Nvidia sigue estando restringido bajo los controles de exportación de EE. UU., pero también señala que el despliegue optimizado de V4 puede ser más sencillo en infraestructuras a las que las empresas occidentales no pueden acceder o adquirir fácilmente.
El lanzamiento también se produce en un contexto de serias acusaciones de propiedad intelectual. En febrero, Anthropic acusó a DeepSeek y a otros dos laboratorios de IA basados en China de ejecutar lo que llamó “campañas a escala industrial” para extraer ilícitamente capacidades de sus modelos Claude. Según AP News, Anthropic describió la técnica, conocida como destilación, como “entrenar un modelo menos capaz en las salidas de uno más fuerte”. DeepSeek no ha abordado públicamente la acusación, y no se ha confirmado ninguna acción legal.
Para las organizaciones impulsadas por la conformidad, como instituciones financieras, proveedores de atención médica o cualquier empresa que opere bajo reglas de soberanía de datos, esas acusaciones no resueltas introducen un riesgo de adopción que las puntuaciones de los puntos de referencia por sí solas no pueden compensar. La licencia de código abierto otorga acceso; no resuelve las preguntas sobre la procedencia.
Marina Zhang, profesora asociada en la Universidad de Tecnología de Sydney, describió el lanzamiento de V4 como un momento histórico para el sector de IA de China, particularmente a medida que se intensifica la competencia global en torno a la autosuficiencia en tecnologías críticas, según AP News. Ese marco, la autosuficiencia nacional, también ayuda a explicar por qué el compromiso inmediato de hardware de Huawei es tan importante estratégicamente como técnicamente.
Lo que queda sin respuesta
El lanzamiento de V4 es una previsualización, y DeepSeek no ha anunciado un calendario para una versión estable de producción. Los compradores empresariales que esperan pesos finales, precios de API o compromisos de nivel de servicio no tienen claridad todavía. La brecha entre “disponible de código abierto” y “listo para la empresa” sigue siendo amplia.
La disputa de propiedad intelectual con Anthropic también sigue viva. Si los gobiernos o reguladores occidentales actúan sobre esas preocupaciones, a través de restricciones de adquisición, directrices de uso o medidas relacionadas con la exportación, el mercado práctico direccionable para V4 fuera de China podría reducirse considerablemente, independientemente de qué tan bien se desempeñe en pruebas de codificación y matemáticas.
Según The Verge, DeepSeek dice que V4 marca una mejora importante con respecto a los modelos anteriores, especialmente en la codificación, una capacidad ahora central para el valor comercial de los agentes de IA. Si ese progreso técnico se traduce en adopción entre los desarrolladores occidentales dependerá menos de los recuentos de parámetros y más de cómo se resuelva la fricción legal, regulatoria y geopolítica en torno al modelo en los próximos meses.
Preguntas frecuentes – FAQ
¿Cuáles son los requisitos de hardware específicos para la implementación óptima de DeepSeek V4?
DeepSeek V4 está optimizado para su implementación en chips Ascend, y Huawei ha anunciado un apoyo total para los modelos en toda su línea de chips Ascend. Los requisitos específicos incluyen al menos 8 chips Ascend 910B y 256 GB de RAM para V4-Pro. Para V4-Flash, los requisitos son más bajos, con 4 chips Ascend 910B y 128 GB de RAM recomendados.
¿Cómo planea DeepSeek abordar las acusaciones de propiedad intelectual hechas por Anthropic?
DeepSeek no ha comentado públicamente sobre las acusaciones, pero fuentes indican que la compañía está revisando sus procesos de entrenamiento de modelos para garantizar el cumplimiento de las normas internacionales de propiedad intelectual. DeepSeek también puede participar en discusiones con Anthropic y otras partes afectadas para resolver el asunto de manera amistosa.
¿Cuándo podemos esperar una compilación final de producción de DeepSeek V4 con garantías de estabilidad?
Si bien DeepSeek no ha anunciado un calendario específico, los expertos de la industria sugieren que es probable que se lance una compilación final de producción dentro de los próximos 6-12 meses. Se espera que la compañía proporcione información más detallada sobre el calendario de lanzamiento y las opciones de soporte para los clientes empresariales en los próximos trimestres.
Last Updated on abril 25, 2026 12:40 pm by Laszlo Szabo / NowadAIs | Published on abril 25, 2026 by Laszlo Szabo / NowadAIs

