He notado una interesante pauta en Silicon Valley — allí aparecen constantemente nuevos «profetas», que nos hablan del apocalipsis y al mismo tiempo nos venden la salvación. Sam Altman es simplemente el modelo más exitoso de esa cadena de producción.



Volvamos a 2016. The New Yorker escribió un artículo sobre él cuando tenía 31 años. Ya entonces era presidente de Y Combinator y, al mismo tiempo, acumulaba armas, oro, yoduro de potasio para protección contra la radiación nuclear. Tenía dos maletas de evacuación y un terreno en Big Sur, desde donde podía volar rápidamente en avión. Diez años después, es quien más grita sobre el peligro de la IA para la humanidad — y al mismo tiempo, quien lo acelera.

Aquí está la esencia de su modelo de negocio: presentar todo como una guerra sagrada por la supervivencia de la humanidad. Lo perfeccionó en YC, convirtiendo un pequeño taller en un imperio enorme. Luego trasladó esa táctica a OpenAI. Habla de «riesgos existenciales» de la IA, los compara con una guerra nuclear, dice en el Senado que la gente debe tener miedo — y cada palabra suya se convierte en titular. Publicidad gratuita a través del miedo controlado.

Y luego propone una solución: Worldcoin. Una esfera plateada que escanea la retina para distribuir dinero en la era de la IA. Suena a una salvación, pero en la práctica pronto generó suspicacia — más de diez países suspendieron el proyecto por cuestiones de privacidad. Pero para Altman eso no es lo principal. Lo importante es que se posicionó como el único que tiene la respuesta.

En cuanto a regulación — es un maestro del golpe de Estado. En 2023, habló ante el Congreso y dijo: «Por favor, regulennos». Propuso un sistema de licencias que excluyera a los competidores. Pero cuando Google y Anthropic alcanzaron en tecnología, su postura cambió. Ahora dice que la regulación estricta sofoca la innovación. Cuando iba adelante — pedía reglas. Cuando perdió la ventaja — pedía libertad.

Detrás de esto estuvo la transformación de OpenAI. Fundada como organización sin fines de lucro con la misión de «garantizar de forma segura la AGI». Para 2024, la palabra «segura» desapareció silenciosamente de la misión. Los ingresos se dispararon de decenas de millones en 2022 a más de 10 mil millones en 2024. La valoración de la empresa creció de 29 mil millones a 100 mil millones.

¿Recuerdan noviembre de 2023? Lo removieron del consejo por «comunicación desleal». Resultó que ocultaba control sobre un fondo de riesgo, mentía sobre los procesos de seguridad, incluso sobre el lanzamiento de ChatGPT, que el consejo supo por Twitter. Cualquiera de esas violaciones debería haberle costado su puesto. Pero no. El 95% de los empleados firmó una petición, Microsoft se puso de su lado, y volvió con aún más poder. Despidió casi a todo el consejo.

¿Y por qué? Porque no es un CEO común — es un «líder carismático» en la comprensión de Max Weber. Sus seguidores no creen en procedimientos, sino en él. Cuando se le cuestiona, lo defienden. Tras su regreso, el equipo de seguridad de OpenAI fue disuelto. El director científico, quien inició su despido, se fue. En mayo de 2024, el jefe de seguridad escribió en Twitter: «La cultura de seguridad ha sido sacrificada por productos brillantes».

Pero no está solo. Musk habla del peligro de la IA, pero Tesla es la mayor empresa de robótica. Zuckerberg gastó 90 mil millones en el metaverso, y luego se volcó a la AGI. Peter Thiel invierte en empresas sobre la singularidad y construye refugios en Nueva Zelanda. Palantir, su empresa, fue la «cerebro» de operaciones contra Irán a principios de 2026, integrando datos de satélites y drones a través de Claude.

Cada uno juega un doble papel — advierte sobre el apocalipsis y lo crea. No es una disociación de personalidad, es un modelo de negocio.

Ahora, sobre su patrimonio. Siempre dijo que no tiene acciones de OpenAI y que trabaja por amor. Pero Bloomberg calculó: su patrimonio personal ronda los 2 mil millones de dólares. Es de inversiones — Stripe le aportó cientos de millones, Reddit también. Invirtió en Helion, una empresa de fusión nuclear, dijo que el futuro de la IA depende de la energía, y luego OpenAI firmó un gran contrato con Helion para electricidad.

No tiene acciones directas de OpenAI, pero construyó alrededor de ella un enorme imperio de inversiones. Cada su discurso sobre el futuro de la humanidad aumenta el valor de ese imperio. La fortuna de Sam Altman crece no por su salario, sino por esta arquitectura de intereses.

Volvamos a la mochila de emergencia con armas, oro, antibióticos y tierra en Big Sur. Nunca lo ocultó. El kit de evacuación es real, el búnker es real, su obsesión con el apocalipsis es real. Pero él mismo acelera el apocalipsis. No es una contradicción — en su lógica, no hay que detener el apocalipsis, solo hay que posicionarse ventajosamente desde antes.

En febrero de 2026, anunció una línea roja — no usar IA en guerra. Y de inmediato firmó un contrato con el Pentágono. No es hipocresía, es una necesidad interna de su modelo. Las posiciones morales son parte del producto, los contratos, la fuente de beneficios.

Debe ser a la vez un salvador misericordioso y un profeta implacable del apocalipsis. Solo así su historia continúa, solo así su «destino» se vuelve evidente.

El peligro real no es la IA, sino quienes se creen con derecho a decidir el destino de la humanidad.
WLD-3,12%
Ver original
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado