Google Gemma 4 officiellement lancé : 4 tailles pour la première fois sous licence Apache 2.0, 31B, troisième plus grande open source au monde

BlockBeatNews

D’après le suivi de 1M AI News, Google a officiellement lancé la famille de modèles open source Gemma 4, comprenant 4 variantes de tailles différentes, toutes sous licence Apache 2.0. Google indique qu’il s’agit d’une réponse aux retours de la communauté. La licence Apache 2.0 signifie que les développeurs peuvent exploiter commercialement, modifier et redistribuer librement, sans contraintes supplémentaires. Clément Delangue, cofondateur et PDG de Hugging Face, qualifie cette initiative de « grand jalon ».

Les 4 modèles sont conçus pour différents scénarios matériels :

  1. 31B Dense : la qualité la plus élevée à l’origine, adaptée au fine-tuning ; les poids non quantifiés peuvent fonctionner sur un seul H100 de 80GB, tandis que la version quantifiée prend en charge un GPU grand public
  2. 26B MoE (Mixture of Experts / experts spécialisés) : 26B de paramètres au total, mais seulement 3,8B sont activés lors de l’inférence ; axé sur la faible latence, adapté aux scénarios d’Agent sensibles à la vitesse
  3. E4B et E2B : des modèles de bord destinés aux téléphones et aux appareils IoT ; lors de l’inférence, environ 4B et 2B de paramètres sont respectivement activés, ce qui suffit à préserver l’autonomie des appareils ; prise en charge native de l’entrée audio (reconnaissance et compréhension de la parole) ; exécution entièrement hors ligne possible

Sur le classement texte du platforme d’évaluation anonyme de confrontations de grands modèles, Arena AI, le 31B se classe troisième parmi les modèles open source au niveau mondial, et le 26B se classe sixième. Google affirme que son modèle « dépasse en moyenne l’ampleur (taille) d’un modèle 20 fois plus grand ». Le modèle est construit à partir des mêmes recherches et de la même technologie que Gemini 3.

Les capacités clés couvrent la raisonnement et la planification multi-étapes, l’appel natif de fonctions et la sortie structurée JSON (pour les workflows d’Agent), la génération de code, la compréhension d’images et de vidéos (pour toute la gamme), et un entraînement natif dépassant 140 langues. Les modèles de bord prennent en charge une fenêtre de contexte 128K, et les grands modèles jusqu’à 256K. E2B et E4B, optimisés conjointement avec l’équipe Pixel de Google, Qualcomm et MediaTek, peuvent fonctionner sur des appareils tels que les téléphones, Raspberry Pi, NVIDIA Jetson Orin Nano, etc. Les développeurs Android peuvent construire des applications d’Agent via le prototype AICore Developer Preview, afin de préparer une compatibilité pour le futur Gemini Nano 4.

Côté écosystème, dès le premier jour, la prise en charge s’étend à des frameworks majeurs comme Hugging Face, vLLM, llama.cpp, MLX, Ollama, NVIDIA NIM, LM Studio, Unsloth, etc. Vous pouvez les tester directement dans Google AI Studio (31B et 26B) et AI Edge Gallery (E4B et E2B). Depuis la sortie de la première génération, la série Gemma a été téléchargée plus de 400 millions de fois, et la communauté a dérivé plus de 100 000 variantes.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire