Google Open SourceGemma-3: comparable to DeepSeek, Puissance de calcul drastically reduced

robot
Création du résumé en cours

Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)