5m salida de fondos... ¡¡Vamos, vamos, vamos!!


Compré un poco de esto
0xd54dfc4e1d84ca093b9b58b0439d47bb45f75cf1
Razón:
1 de agosto de 2025 — Registro de marca
xAI presentó una solicitud de marca “Macrohard” ante la Oficina de Patentes y Marcas de EE. UU., con un costo de $2,300, cubriendo dos categorías: software de voz/texto de IA y inteligencia artificial agentic.
22 de agosto de 2025 — Anuncio oficial
Elon Musk publicó en X que oficialmente anunciaría: crear una “empresa de software de IA pura” bajo xAI y reclutar ingenieros públicamente. Lógica central: empresas como Microsoft no producen hardware en sí mismas, y en teoría pueden usar IA para simular completamente su operación.
Octubre de 2025 — Inauguración del centro de supercomputación Memphis
Elon Musk pintó en el techo del centro de supercomputación Colossus 2 en Memphis, bajo xAI, la palabra gigante “MACROHARD”, visible desde el espacio.
11 de febrero de 2026 — Reunión general de xAI divulgada públicamente
xAI dividió la empresa en cuatro equipos, uno de los cuales se encarga específicamente del proyecto Macrohard. El responsable Toby Pohlen dijo: “Puede hacer cualquier cosa que una computadora pueda hacer, los motores de cohetes deberían ser completamente diseñados por IA.”
11 de marzo de 2026 — Lanzamiento oficial del proyecto conjunto Tesla×xAI
Elon Musk confirmó que Macrohard (también conocido como “Digital Optimus”) es un proyecto conjunto de Tesla y xAI, parte del acuerdo de inversión de $2 mil millones de Tesla en xAI. En la arquitectura, Grok se encarga del razonamiento de alto nivel (Sistema 2), Tesla AI maneja el procesamiento en tiempo real de pantallas (Sistema 1), operando en el chip Tesla AI4.
Este anuncio es muy sensible legalmente — porque Musk dijo a los accionistas de Tesla en septiembre de 2024 que “no necesita autorización de xAI para nada”, y actualmente los accionistas de Tesla están presentando demandas contra él por conflicto de intereses con xAI.
Abril de 2026 (lo más reciente) — Entrenamiento de modelos de gran tamaño en curso
Colossus 2 está entrenando actualmente 7 modelos simultáneamente, con un tamaño máximo de 100 billones de parámetros (10T), siendo el mayor tamaño anunciado públicamente en la industria, superando las estimaciones de GPT-5 y Claude.
Ver originales
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado