Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Google Open SourceGemma-3: comparable to DeepSeek, Puissance de calcul drastically reduced
Les données Jinshi du 13 mars ont annoncé que hier soir, Sundar Pichai, PDG de Google (GOOG.O), a déclaré que le dernier grand modèle multimodal Open Source, Gemma-3, se concentre sur des performances élevées à faible coût. Gemma-3 dispose de quatre ensembles de paramètres : 1 milliard, 4 milliards, 12 milliards et 27 milliards. Même avec le plus grand ensemble de 27 milliards de paramètres, une seule H100 suffit pour une inférence efficace, ce qui nécessiterait au moins une augmentation de 10 fois de la puissance de calcul pour les modèles similaires, en faisant actuellement le modèle de petit paramètre le plus puissant. Selon les données de test aveugle de LMSYS ChatbotArena, Gemma-3 se classe juste après R1-671B de DeepSeek, supérieur à o3-mini d'OpenAI, Llama3-405B et d'autres modèles populaires.