Scannez pour télécharger l’application Gate
qrCode
Autres options de téléchargement
Ne pas rappeler aujourd’hui

DeepSeek lance V3.2 et Speciale, avec des capacités de raisonnement et de performance qui rivalisent avec GPT-5 et Gemini 3.

DeepSeek a lancé deux nouveaux modèles le 2 décembre, à savoir DeepSeek-V3.2 et DeepSeek-V3.2-Speciale, qui se concentre sur le raisonnement mathématique. L'équipe officielle a déclaré que ces deux modèles poursuivent la direction expérimentale d'origine, visant à améliorer de manière globale les capacités de raisonnement, d'utilisation d'outils et de pensée prolongée. DeepSeek souligne également que la version officielle V3.2 a déjà atteint des performances comparables à celles de GPT-5 et Gemini-3 Pro dans plusieurs tests de raisonnement, tandis que la version Speciale a atteint un niveau de médaille d'or international dans les compétitions mathématiques et d'information.

La version expérimentale cède la place à la version officielle V3.2.

DeepSeek a lancé V3.2-Exp en septembre, en le positionnant comme une plateforme expérimentale vers la prochaine génération d'IA. La version officielle lancée cette fois-ci, DeepSeek-V3.2, ne porte plus le suffixe « Exp », symbole d'une fonctionnalité plus mature.

Selon l'annonce officielle, la nouvelle version V3.2 montre des performances comparables à celles de GPT-5 et Gemini-3 Pro dans plusieurs tests de raisonnement, et souligne en particulier qu'il s'agit de leur premier modèle intégrant étroitement le “mode de pensée” et “l'application d'outils”, tout en supportant à la fois le mode de pensée et le mode non-pensée. Comme indiqué dans l'image ci-dessous :

« DeepSeek-V3.2 a prouvé par le biais de tests de référence que sa capacité d'outil peut se classer aux côtés de modèles de pointe tels que GPT-5 et Gemini-3 Pro. »

Capacités de raisonnement améliorées, intégration des outils comme point fort.

DeepSeek indique que le point fort de la version 3.2 est la capacité de combiner le processus de raisonnement avec l'utilisation d'outils. En d'autres termes, le modèle peut faire appel à des moteurs de recherche, des calculatrices, des exécuteurs de code et d'autres outils externes tout en réfléchissant à un sujet, rendant le processus global de traitement des tâches plus complet, plus autonome et plus proche de la manière dont les humains traitent les problèmes.

Speciale se concentre sur une longue réflexion, les performances mathématiques atteignent le niveau d'or.

En plus de la version standard V3.2, DeepSeek a également lancé une autre version, DeepSeek-V3.2-Speciale. Cette version est spécialement conçue pour les raisonnements mathématiques complexes et les réflexions prolongées.

La position officielle est d'explorer les limites des capacités d'inférence des modèles open source, voire de voir jusqu'où le modèle lui-même peut aller. En termes de résultats, Speciale a atteint le niveau de médaille d'or dans des compétitions telles que l'Olympiade internationale de mathématiques (IMO) et l'Olympiade internationale d'informatique (IOI), et ses performances d'inférence sont comparables à celles du dernier Gemini-3 Pro de Google. Comme indiqué dans le graphique ci-dessous :

« La capacité de raisonnement de DeepSeek-V3.2-Speciale a atteint le niveau d'or des compétitions internationales de mathématiques et d'informatique, surpassant ou égalant GPT-5, Gemini-3 Pro et Kimi-K2 dans plusieurs tests de référence en raisonnement et en programmation. »

Une nouvelle méthode d'entraînement est révélée, les capacités de l'IA sont renforcées.

En dehors du modèle, DeepSeek a également publié une nouvelle recherche, à savoir qu'ils ont mis en place une nouvelle méthode pour entraîner des agents d'IA. Ces agents peuvent interagir de manière autonome avec l'environnement externe, analyser des données et prendre des décisions sans nécessiter des instructions continues de la part des humains.

DeepSeek souligne que c'est la technologie de base qu'ils ont conçue pour permettre à l'IA d'être plus efficace et de réagir plus rapidement.

Poursuivre le volume sonore pendant un mois, le rythme de recherche et développement continue de s'accélérer.

DeepSeek a suscité l'attention mondiale en janvier de cette année avec un modèle révolutionnaire. La série V3.2, qui en découle, est le dernier résultat de leurs recherches après ce succès. Juste avant le lancement de V3.2, DeepSeek a publié la semaine dernière DeepSeekMath-V2, un modèle open source dédié à la preuve de théorèmes mathématiques, montrant qu'ils continuent à renforcer leur expertise dans le raisonnement et le domaine des mathématiques.

Le rapport technique est sorti, la version V3.2 a une capacité de raisonnement proche de GPT-5 et Kimi.

DeepSeek a également publié un rapport technique intitulé « DeepSeek-V3.2 : Pushing the Frontier of Open Large Language Models », indiquant que V3.2 présente des performances similaires à celles de GPT-5 et Kimi-k2-thinking dans plusieurs tests de référence de raisonnement.

Ce rapport souligne également que la compétitivité des modèles open-source locaux en Chine dans le domaine de l'inférence reste au même niveau que celle des meilleurs modèles internationaux.

Cet article présente DeepSeek qui lance V3.2 et Speciale, avec une performance et des capacités proches de GPT-5 et Gemini 3, publié pour la première fois sur Blockchain News ABMedia.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)