Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
¿Google hace público el TPU 8t·8i que separa el aprendizaje y la inferencia de IA... puede sacudir el mercado centrado en Nvidia?
Google para dar la bienvenida a la “Era de los Agentes Inteligentes”, ha cambiado su estrategia de semiconductores de inteligencia artificial. Ha abandonado la forma anterior de usar un solo chip universal para manejar tanto el aprendizaje como el razonamiento, y ha lanzado por separado el “TPU 8t” para aprendizaje a gran escala y el “TPU 8i” para razonamiento de alta concurrencia.
El día 23 (hora local), en el evento “Google Cloud Next 2026” en Las Vegas, EE. UU., la compañía presentó dos semiconductores de IA personalizados. La empresa afirmó que el mercado de IA se está dividiendo rápidamente en la “fase de construcción de modelos” y la “fase de implementación en servicios reales”, y explicó que los nuevos TPU están diseñados precisamente para adaptarse a estos cambios en la demanda.
Si el “Ironwood TPU” anterior era una plataforma insignia única orientada a la era del razonamiento, la característica de esta generación de productos radica en que su estructura en sí misma ha sido binarizada. Esto se interpreta como que Google ha decidido que, con la popularización de los agentes de IA, la infraestructura necesaria para entrenar modelos más grandes y la infraestructura para ejecutar rápidamente estos modelos en la nube están creciendo simultáneamente.
TPU 8t: Mejora en rendimiento y eficiencia de costos para entrenamiento de IA a gran escala
El TPU 8t es un chip enfocado en el entrenamiento a gran escala y cargas de trabajo centradas en incrustaciones. Google indica que este producto utiliza una topología de red “anillo 3D”, que mejora la escalabilidad de grandes clústeres. El número de chips que puede conectar un solo Pod es de 9600, superior a los 9216 de Ironwood.
Su núcleo soporta “SparseCore” y operaciones en punto flotante de 4 bits. SparseCore es un acelerador dedicado para manejar accesos a memoria irregulares frecuentes durante la búsqueda en modelos de lenguaje grandes. Google afirma que, combinando cálculos en bits bajos, se reduce la carga en el ancho de banda de memoria, permitiendo mantener la precisión incluso con menor capacidad de memoria, y duplicando el rendimiento.
Esto responde a la tendencia tecnológica conocida como “cuantización”. Reducir el número de bits necesarios por parámetro significa que incluso en sistemas con especificaciones relativamente bajas, se pueden ejecutar modelos más grandes, además de reducir el consumo de energía y el espacio físico. Google indica que, en entornos de entrenamiento a gran escala, el TPU 8t ofrece hasta 2.7 veces más rendimiento por dólar en comparación con Ironwood.
TPU 8i: Enfoque en velocidad de inferencia y procesamiento concurrente
El TPU 8i está diseñado específicamente para la fase de inferencia, cuando los modelos entrenados se ponen en producción. Es especialmente ventajoso en el procesamiento posterior de modelos grandes y en la gestión de muchas solicitudes de usuarios simultáneos.
Según Google, el TPU 8i cuenta con tres veces más memoria de acceso aleatorio estático que Ironwood. Esto le permite albergar un “caché de claves y valores” más grande necesario para la inferencia en modelos de lenguaje grandes, acelerando la generación de texto. Además, Google ha implementado un sistema de inferencia llamado “Collectives Acceleration Engine”, que acelera las operaciones de sincronización y reducción necesarias en la decodificación autoregresiva y en los procesos de “cadena de pensamiento”.
La estructura de conexión entre chips también ha sido rediseñada. Google introdujo una topología de red personalizada llamada “Boardfly ICI”, que puede interconectar hasta 1152 chips. El objetivo de este diseño es que todos los chips puedan comunicarse de manera más eficiente, reduciendo la distancia y el número de saltos en la transmisión de datos. Google afirma que, en modelos de lenguaje y razonamiento basados en modelos híbridos de expertos, la cantidad máxima de saltos en la comunicación “de uno a todos” puede reducirse en un 50%.
El costo-eficiencia también es un aspecto destacado. Google explica que el diseño del TPU 8i busca ofrecer aproximadamente un 80% más de rendimiento por dólar en entornos de baja latencia en comparación con Ironwood, siendo especialmente útil para servicios que requieren modelos de frontera de expertos híbridos de tamaño ultragrande.
La estrategia de Google: ¿puede desafiar al mercado dominado por NVIDIA?
Google añadió que la eficiencia energética del TPU 8t y el TPU 8i ha mejorado en un factor de 2 respecto a la generación anterior. La eficiencia energética es una variable clave para la rentabilidad de los grandes centros de datos de IA, por lo que esta mejora es significativa.
Este lanzamiento no solo representa la introducción de un nuevo semiconducto, sino que también es una señal de que Google está formalmente diferenciando su estrategia de infraestructura de IA en “entrenamiento” y “razonamiento”. En un contexto donde la competencia en servicios de IA se desplaza de la mera capacidad de modelos a los costos operativos, velocidad de respuesta y procesamiento concurrente, Google busca potenciar aún más su negocio en la nube con los TPU.
El mercado considera que la variable decisiva será la velocidad de adopción por parte de los clientes reales y la compatibilidad del software en competencia con el ecosistema centrado en NVIDIA. Sin embargo, con la popularización de los agentes de IA, la demanda de semiconductores para entrenamiento y para inferencia está creciendo en paralelo. La estrategia binarizada de TPU de Google probablemente se convertirá en un punto de inflexión importante en la competencia por la infraestructura de IA en el futuro.
Aviso de TP AI Este artículo está resumido a partir del modelo de lenguaje TokenPost.ai. Es posible que el contenido principal tenga omisiones o discrepancias con los hechos.