Google vient de faire un mouvement très stratégique lors de la conférence Cloud Next à Las Vegas.


Lancé deux nouveaux processeurs TPU de huitième génération simultanément, et cela marque un tournant important dans la façon dont l'entreprise perçoit le marché de l'IA.

Pour la première fois, Google a complètement séparé les puces d'entraînement et d'inférence.
Il y a le TPU 8t axé sur l'entraînement des modèles d'IA, et le TPU 8i optimisé pour exécuter ces modèles en production.
C'est un changement tactique clair - ils reconnaissent que ces deux tâches ont des besoins très différents.

Les chiffres de performance sont intéressants.
Le TPU 8t offre 124 % d'efficacité en plus par watt comparé à la génération précédente, tandis que le TPU 8i affiche une amélioration de 117 %.
Comparé à Ironwood sorti en novembre, le TPU 8t fournit 2,8 fois plus de performance pour le même prix, et le 8i est 80 % plus efficace.
Ces gains ne sont pas triviaux.

Ce qui attire le plus l'attention sur le TPU 8t, c'est sa capacité à évoluer jusqu'à 9 600 unités dans un seul système.
Google est bien conscient qu'avec des installations de cette taille, l'énergie est devenue le limiteur critique des centres de données.
C'est pourquoi l'efficacité énergétique est devenue la priorité absolue.

Quant au TPU 8i, il adopte une approche différente.
Chaque puce contient 384 Mo de SRAM - trois fois plus que Ironwood.
Cela a beaucoup de sens pour l'inférence, où la puce doit traiter plusieurs étapes de raisonnement sans avoir à rechercher des données à l'extérieur tout le temps.
Idéal pour faire fonctionner des agents d'IA complexes.

Les deux processeurs seront sur le marché à la fin de 2026.
Sundar Pichai, PDG d'Alphabet, a clairement indiqué que l'architecture a été conçue pour "faire fonctionner des millions d'agents simultanément de manière économiquement viable".
C'est le point - il ne s'agit pas seulement d'avoir de meilleures puces, mais de le faire sans dépasser le budget.

Du côté logiciel, Google a lancé la Gemini Enterprise Agent Platform avec de nouvelles fonctionnalités.
Memory Bank et Memory Profile permettent aux agents de se souvenir des interactions passées avec les utilisateurs - résolvant un problème réel que les anciennes outils avaient.
Il y a aussi Agent Simulation pour mieux tester avant le lancement.

La plateforme Projects intègre des données de Workspace, OneDrive et des chats d'entreprise, donnant du contexte aux agents.
De plus, ils ont lancé Gemini Enterprise pour les employés ordinaires, positionné comme un "assistant IA pour chacun", sans avoir besoin d'écrire du code.

Tout cela constitue une double attaque - matériel et logiciel - contre Nvidia, OpenAI et Anthropic.
Google est bien conscient que les ingénieurs de la Silicon Valley alternent souvent entre Claude d'Anthropic et Codex d'OpenAI pour le développement de l'IA, en négligeant rarement les outils de Google.
Cela dérange clairement la direction.

L'adoption du TPU s'accélère.
Citadel Securities a déjà construit un logiciel quantitatif sur TPU de Google.
Les 17 laboratoires nationaux du Département de l'Énergie des États-Unis utilisent des outils collaboratifs basés sur TPU.
Meta a signé un accord à long terme pour utiliser le TPU de Google, et Anthropic s'est engagé à une capacité informatique à l'échelle des gigawatts.

Les analystes de DA Davidson estiment que la valeur combinée des affaires de TPU et de DeepMind de Google dépassait 900 milliards de dollars en septembre dernier.

Il est intéressant de noter que Google n'a pas directement comparé son nouveau TPU aux produits Nvidia.
Pendant ce temps, Nvidia s'apprête à lancer une nouvelle gamme intégrant la technologie de Groq, qu'ils ont acquise pour 20 milliards de dollars, spécialement conçue pour l'inférence à très faible latence.
Jensen Huang de Nvidia a déclaré que plus de 20 % des charges d'IA pourraient être mieux gérées par ce type de puce.

Google teste la mise en œuvre du TPU dans les centres de données de clients et promeut la compatibilité avec des outils tiers.
Mais les goulets d'étranglement de l'approvisionnement et le décalage entre les itérations rapides des modèles et les cycles de développement de puces qui prennent des années restent des défis réels pour l'expansion.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler