deepseekia

Hace unos años, DeepSeek sorprendió al demostrar que se podía lograr un gran rendimiento con menos recursos.

Ahora, con el lanzamiento de DeepSeek-V3.1, la compañía da un paso más y apunta directamente a la próxima generación de chips chinos, en un contexto marcado por los controles de exportación de Estados Unidos y la creciente necesidad de autosuficiencia tecnológica en China.

Dos modos de inferencia: Think y Non-Think

La novedad más visible de esta versión es la inferencias híbrida, que introduce dos rutas conmutables:

  • Think Mode: orientado al razonamiento profundo y tareas complejas.
  • Non-Think Mode: enfocado en respuestas rápidas con menor latencia.

Ambos modos pueden alternarse desde la web y la app oficial, permitiendo al usuario decidir entre velocidad o calidad de razonamiento según la necesidad. Esto convierte a V3.1 en un sistema flexible para conversaciones extensas y tareas heterogéneas en un mismo flujo.

UE8M0 FP8: Ajustado a semiconductores chinos

Uno de los cambios más significativos es la adopción de UE8M0 FP8, un formato de datos optimizado para los chips nacionales chinos de próxima generación.

  • FP8 reduce a la mitad el tamaño frente a FP16/BF16.
  • Aumenta el rendimiento por ciclo y disminuye el consumo de memoria cuando hay soporte nativo.
  • Según DeepSeek, este esquema de escala no solo empaqueta pesos, sino que está integrado en el diseño de entrenamiento y ejecución.

Si los chips locales chinos integran soporte FP8 de forma nativa, el impacto en la industria de la IA y en la dependencia tecnológica de NVIDIA podría ser notable.

Ventana de contexto y disponibilidad

DeepSeek-V3.1 amplía su ventana de contexto hasta 128.000 tokens, ideal para documentos extensos y sesiones de diálogo prolongadas.

  • Disponibilidad: accesible vía API para integración en productos de terceros.
  • Recursos técnicos: alojados en Hugging Face, con detalles sobre el uso de UE8M0 FP8.
  • Benchmarks: en pruebas como MathArena (ETH Zürich), el modo Think se posiciona entre los modelos más competitivos, aunque GPT-5 lidera actualmente.

Competencia y geopolítica

El lanzamiento llega en un escenario delicado:

  • EE. UU. mantiene restricciones a la exportación de chips avanzados hacia China.
  • NVIDIA depende en un 13% del mercado chino, lo que podría verse afectado si las alternativas locales con FP8 ganan tracción.
  • Casos como el del chip H20 en China reflejan la incertidumbre entre permisos regulatorios y sustitutos locales.

Aunque DeepSeek enfrentó dificultades técnicas al intentar entrenar con hardware Huawei Ascend, y terminó volviendo a GPU de NVIDIA, la inferencia sí logró mantenerse en chips locales cuando fue posible.

👉 Esto sugiere que V3.1 es más un paso evolutivo que un salto definitivo, pero marca claramente la dirección estratégica.

Precios y hoja de ruta

DeepSeek anunció que desde el 6 de septiembre ajustará los precios de su API, en una estrategia para sostener y escalar el servicio.

  • Evolución reciente: R1 en mayoV3 en marzoV3.1 en agosto.
  • Arquitectura: basada en Mixture-of-Experts, con decenas de miles de millones de parámetros activos por token.

DeepSeek-V3.1 es un mensaje claro al ecosistema:

  • Inferencia híbrida para balancear rapidez y razonamiento.
  • FP8 nativo como apuesta estratégica para chips chinos.
  • Mayor ventana de contexto y disponibilidad vía API.

Si el hardware local se alinea con este estándar, el panorama de la IA en China podría transformarse, reduciendo la dependencia de NVIDIA y acelerando la consolidación de un ecosistema propio de semiconductores.

 

Fuente: somoslibres

¿Quién está en línea?

Hay 2649 invitados y ningún miembro en línea