Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

DeepSeek lanza V3.2 junto con Speciale, la inferencia y el rendimiento se acercan a GPT-5 y Gemini 3.

DeepSeek lanzó el 2 de diciembre dos modelos, que son DeepSeek-V3.2 y DeepSeek-V3.2-Speciale, especializado en razonamiento matemático. La oficialidad ha declarado que estos dos modelos continúan la dirección experimental inicial, con el objetivo de mejorar de manera integral la capacidad de razonamiento, el uso de herramientas y la capacidad de pensamiento prolongado. DeepSeek también enfatiza que la versión oficial V3.2 ha demostrado un rendimiento comparable a GPT-5 y Gemini-3 Pro en múltiples pruebas de razonamiento, mientras que la versión Speciale ha alcanzado un nivel de medalla de oro internacional en competiciones de matemáticas e información.

La versión experimental lidera, la versión oficial V3.2 toma el relevo.

DeepSeek se posicionó como una plataforma experimental hacia la próxima generación de IA con el lanzamiento de V3.2-Exp en septiembre. La versión oficial lanzada ahora, DeepSeek-V3.2, ya no lleva el sufijo “Exp”, simbolizando una funcionalidad más madura.

La explicación oficial indica que el nuevo V3.2 tiene un rendimiento en múltiples pruebas de razonamiento similar al de GPT-5 y Gemini-3 Pro, y enfatiza especialmente que esta es la primera vez que integran de manera estrecha el “modo de pensamiento” con “aplicaciones de herramientas” en un modelo, y al mismo tiempo soporta tanto el modo de pensamiento como el modo no pensante. A partir de la imagen de abajo se puede deducir:

“DeepSeek-V3.2 ha demostrado a través de pruebas de referencia que su capacidad de uso de herramientas puede compararse con modelos de primer nivel como GPT-5 y Gemini-3 Pro.”

La capacidad de razonamiento se actualiza nuevamente, la integración de herramientas se convierte en el punto más destacado.

DeepSeek indica que uno de los aspectos más destacados de V3.2 es la capacidad de combinar el proceso de inferencia con el uso de herramientas. En otras palabras, mientras el modelo reflexiona sobre un asunto, también puede invocar herramientas externas como motores de búsqueda, calculadoras y ejecutores de código, lo que hace que el proceso general de manejo de tareas sea más completo, más autónomo y más cercano a la forma en que los humanos abordan los problemas.

Speciale se centra en el razonamiento a largo plazo, con un rendimiento matemático de nivel oro.

Además de la versión estándar V3.2, DeepSeek ha lanzado otra versión llamada DeepSeek-V3.2-Speciale. Esta versión está diseñada específicamente para razonamientos matemáticos de alta dificultad y para un pensamiento prolongado.

La posición oficial es la de explorar los límites de la capacidad de inferencia de modelos de código abierto, e incluso ver hasta dónde puede llegar el propio modelo. En términos de resultados, Speciale ha alcanzado el nivel de medalla de oro en competiciones como la Olimpiada Internacional de Matemáticas (IMO) y la Olimpiada Internacional de Informática (IOI), y su rendimiento en inferencia es comparable al último Gemini-3 Pro de Google. A partir de la siguiente imagen se puede entender:

“La capacidad de razonamiento de DeepSeek-V3.2-Speciale ha alcanzado el nivel de medalla de oro en competencias internacionales de matemáticas e informática, superando o igualando en múltiples pruebas de referencia de razonamiento y programación a GPT-5, Gemini-3 Pro y Kimi-K2.”

Se revela un nuevo método de entrenamiento, se refuerza la capacidad de los agentes de IA.

Fuera del modelo, DeepSeek también ha hecho pública una nueva investigación, es decir, han desarrollado un nuevo método para entrenar agentes de IA. Este tipo de agentes pueden interactuar por sí mismos con el entorno externo, analizar datos, tomar decisiones, sin necesitar instrucciones humanas continuas.

DeepSeek enfatiza que esta es la tecnología fundamental que diseñaron para que la IA sea más eficiente y responda más rápido.

Continuar el volumen de un mes, el ritmo de investigación y desarrollo sigue acelerándose.

DeepSeek llamó la atención mundial en enero de este año debido a un modelo innovador. Esta serie V3.2 es también el último resultado de su continuo impulso de investigación tras ese éxito. Justo antes del lanzamiento de V3.2, DeepSeek lanzó la semana pasada DeepSeekMath-V2, un modelo de código abierto especializado en la demostración de teoremas matemáticos, lo que demuestra que están fortaleciendo continuamente su razonamiento en el campo de las matemáticas.

El informe técnico ha salido, la capacidad de inferencia de V3.2 se aproxima a GPT-5 y Kimi

DeepSeek también ha publicado el informe técnico “DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models”, destacando que V3.2 tiene un rendimiento similar al de GPT-5 y Kimi-k2-thinking en varias pruebas de referencia de razonamiento.

Este informe también destaca que la competitividad de los modelos de código abierto locales en China en el ámbito de la inferencia sigue estando a la par con los mejores modelos internacionales.

Este artículo sobre DeepSeek presenta la nueva versión V3.2 y Speciale, con capacidades de razonamiento y rendimiento que se acercan a GPT-5 y Gemini 3. Apareció por primera vez en Chain News ABMedia.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)