El panorama de la IA cambió drásticamente en 2025. HBM emergió como un caballo oscuro, trastocando la jerarquía de los chips de memoria. SK Hynix tuvo una subida repentina, capturando el 57% del mercado. Samsung tropezó hasta el 27%. Micron quedó rezagado con el 16%.
HBM es el arma secreta para gigantes de la IA como ChatGPT. Es una autopista de datos para sistemas de IA. No es solo tecnología elegante, es crucial. Previene que la IA se ahogue en datos.
SK Hynix jugó bien sus cartas. Se unieron a Nvidia. Movida inteligente. Se centraron en HBM3 y HBM3E. Estos alimentan los potentes chips H100 y Blackwell de Nvidia. Ahora están superando límites. Muestras de HBM4 de 12 capas están en proceso. Parece que están en sintonía con los planes futuros de GPU "Rubin" de Nvidia.
Samsung cometió un error. Grande. ¿Sus chips HBM3E de 12 capas? No están certificados por Nvidia. Eso es un pase dorado en el mundo de la IA. Vaya. Las ganancias se desplomaron un 56%. Rebaja de inventario costosa. No es bonito.
¿Las apuestas? Astronómicas. La infraestructura de IA podría alcanzar $7 trillones para 2030. Es algo asombroso. ¿Éxito en HBM? Se trata de alinearse con los mejores diseñadores de chips de IA.
¿Esta carrera de cadenas de suministro de IA? Es a una velocidad vertiginosa. Un error puede costar miles de millones. El mensaje es claro, aunque un poco duro. Innova o desvanécete en el juego de los chips de IA. Es despiadado allá afuera.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El panorama de la IA cambió drásticamente en 2025. HBM emergió como un caballo oscuro, trastocando la jerarquía de los chips de memoria. SK Hynix tuvo una subida repentina, capturando el 57% del mercado. Samsung tropezó hasta el 27%. Micron quedó rezagado con el 16%.
HBM es el arma secreta para gigantes de la IA como ChatGPT. Es una autopista de datos para sistemas de IA. No es solo tecnología elegante, es crucial. Previene que la IA se ahogue en datos.
SK Hynix jugó bien sus cartas. Se unieron a Nvidia. Movida inteligente. Se centraron en HBM3 y HBM3E. Estos alimentan los potentes chips H100 y Blackwell de Nvidia. Ahora están superando límites. Muestras de HBM4 de 12 capas están en proceso. Parece que están en sintonía con los planes futuros de GPU "Rubin" de Nvidia.
Samsung cometió un error. Grande. ¿Sus chips HBM3E de 12 capas? No están certificados por Nvidia. Eso es un pase dorado en el mundo de la IA. Vaya. Las ganancias se desplomaron un 56%. Rebaja de inventario costosa. No es bonito.
¿Las apuestas? Astronómicas. La infraestructura de IA podría alcanzar $7 trillones para 2030. Es algo asombroso. ¿Éxito en HBM? Se trata de alinearse con los mejores diseñadores de chips de IA.
¿Esta carrera de cadenas de suministro de IA? Es a una velocidad vertiginosa. Un error puede costar miles de millones. El mensaje es claro, aunque un poco duro. Innova o desvanécete en el juego de los chips de IA. Es despiadado allá afuera.