Sam Altman: El capitalista apocalíptico y el negocio del miedo

iconBlockbeats
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
Sam Altman, una figura clave en Silicon Valley, ha construido un imperio de inversiones de $20 mil millones promoviendo narrativas sobre el apocalipsis de la IA. OpenAI, que antes era sin fines de lucro, ahora es una entidad comercial de más de $100 mil millones. Los críticos califican su enfoque de hipócrita: advertir sobre los riesgos de la IA mientras acelera su crecimiento. Altman utiliza la presión regulatoria estratégicamente, manteniendo el poder mediante un liderazgo carismático. Los operadores que usan análisis técnico (TA) para cripto a menudo revisan los niveles de soporte y resistencia al evaluar el sentimiento del mercado en torno a acciones tecnológicas impulsadas por IA y activos cripto relacionados.
Artículo | Sleepy.txt


En 2016, The New Yorker publicó un artículo especial sobre Sam Altman titulado "El destino de Sam Altman". Ese año tenía 31 años y ya era presidente de Y Combinator, el acelerador más poderoso de Silicon Valley.


Hay un detalle en el guion que dice que Ultraman le gusta conducir a alta velocidad, tiene cinco deportivos y le gusta alquilar aviones para pilotarlos. Él le dijo al periodista que tiene dos maletas, una de las cuales es una mochila de escape lista para huir en cualquier momento.


También preparó armas de fuego, oro, yoduro de potasio (para protegerse contra la radiación nuclear), antibióticos, baterías, agua, máscaras de gas de nivel de las Fuerzas de Defensa de Israel, y también adquirió una propiedad en Big Sur (un famoso destino costero en California), donde puede aterrizar con su avión en cualquier momento para refugiarse.


Diez años después, Otman se convirtió en la persona más dedicada a crear el apocalipsis y también en la más dedicada a vender la arca. Mientras advertía al mundo que la IA destruiría a la humanidad, aceleraba personalmente este proceso; mientras decía que no lo hacía por dinero, construyó un imperio de inversiones personales valorado en 2 mil millones de dólares; mientras llamaba a la regulación, expulsó a todos los que intentaban poner frenos.


Más que un loco esquizofrénico o un estafador infalible, él es simplemente el producto más estándar y más exitoso generado por la enorme máquina de Silicon Valley. Su «destino» es forjar la ansiedad colectiva de la humanidad en su cetro y corona.


El fin del mundo es un buen negocio


El modelo de negocio de Ultraman se puede explicar en una frase: convertir un negocio en una santa batalla por la supervivencia de la humanidad.


Este enfoque lo ha estado practicando desde la era de YC. Transformó a YC, que era originalmente un pequeño taller que proporcionaba unos pocos miles de dólares a startups tempranas, en un imperio empresarial enorme. Creó un laboratorio de YC para financiar proyectos que no generaban ganancias pero sonaban muy ambiciosos. Le dijo a los periodistas que el objetivo de YC era financiar «todos los campos importantes».


En OpenAI, llevó este enfoque al extremo. Vende un paquete completo de visión del mundo: el fin del AI + una solución de redención.


Él es quien mejor describe el "riesgo de extinción" que supone la IA. Firmó junto a cientos de científicos que comparan el riesgo de la IA con una guerra nuclear. Durante su testimonio ante el Senado dijo: "Sentimos una leve preocupación por (el potencial de la IA) —y la gente debería alegrarse por ello". Sugería que este miedo es en sí mismo una advertencia útil.


Cada una de estas afirmaciones podría encabezar las noticias, cada una está haciendo publicidad gratuita para OpenAI. Este miedo cuidadosamente diseñado es la palanca de atención más eficiente. ¿Qué genera más entusiasmo en el capital y los medios: una tecnología que «aumenta la eficiencia» o una que «podría destruir a la humanidad»? La respuesta es obvia.


En esa parte de la redención, también tiene un producto listo: Worldcoin. Cuando el miedo se inserta en la conciencia pública, la venta de soluciones se vuelve lógica. Con una esfera plateada del tamaño de un balón de baloncesto, escanea globalmente los iris humanos, diciendo que es para entregar dinero a cada persona en la era de la IA. La historia suena muy bien, pero esta práctica de intercambiar datos biométricos por dinero pronto atrajo la atención de gobiernos de varios países. Una docena de naciones, incluyendo Kenia, España, Brasil, India y Colombia, suspendieron o investigaron Worldcoin por razones de privacidad de datos.



Pero para Ultraman, esto probablemente no importe en absoluto. Lo importante es que, a través de este proyecto, logró posicionarse como la única persona con una solución.


Vender el miedo y la esperanza es el modelo de negocio más eficiente de esta era.


La regulación es mi arma, no mi cadena


¿Cómo hace negocios alguien que siempre habla del fin del mundo? La respuesta de Ultraman es: convierte la regulación en tu arma.


En mayo de 2023, testificó por primera vez ante el Congreso de Estados Unidos. En lugar de quejarse sobre la regulación, como otros directores ejecutivos de empresas tecnológicas, propuso activamente: «Por favor, regúlenos». Sugería establecer un sistema de licencias de IA, donde solo las empresas con licencia pudieran desarrollar modelos grandes. Esta imagen pública transmitía a un líder industrial muy responsable, pero en ese momento, OpenAI lideraba con una ventaja tecnológica abrumadora, y un sistema regulatorio estricto y de altas barreras tenía como principal efecto excluir a todos los competidores potenciales.


Sin embargo, con el paso del tiempo, especialmente después de que competidores como Google y Anthropic avanzaran en tecnología y la comunidad de código abierto comenzara a ganar fuerza, la postura de Altman sobre la regulación sufrió un cambio sutil. Comenzó a enfatizar en diferentes ocasiones que una regulación demasiado estricta, particularmente la exigencia de revisión obligatoria por parte de las empresas de IA antes de su lanzamiento, podría ahogar la innovación y ser «desastrosa».


En este momento, la regulación ya no es un foso defensivo, sino una piedra en el camino.


Cuando se encuentra en una ventaja absoluta, pide regulación para consolidar esa ventaja; cuando ya no la tiene, exige libertad para buscar una ruptura. Incluso intenta extender su influencia hasta el extremo superior de la cadena de suministro. Propuso un plan de chips de hasta 7 billones de dólares, buscando el apoyo de fondos soberanos de capital como el de Emiratos Árabes Unidos, con la intención de reconfigurar el panorama global de la industria de semiconductores. Esto va mucho más allá del alcance de un CEO, y se asemeja más al deseo de un ambicioso que busca influir en el orden global.



Detrás de todo esto, hay una transformación acelerada de OpenAI de una organización sin fines de lucro a una gigante comercial. Cuando se fundó en 2015, su misión era «asegurar de forma segura que la IAG beneficie a toda la humanidad». En 2019, creó una subsidiaria de «beneficios limitados». A principios de 2024, se descubrió que la palabra «de forma segura» había sido eliminada silenciosamente de la declaración de misión de OpenAI. Aunque su estructura corporativa sigue siendo de «beneficios limitados», su ritmo de comercialización ha acelerado claramente. En correspondencia, los ingresos experimentaron un crecimiento exponencial, pasando de decenas de millones de dólares en 2022 a más de 100 mil millones de dólares anuales en 2024, y su valoración aumentó de 29 mil millones a niveles de mil millones de dólares.


Cuando una persona comienza a mirar las estrellas y hablar sobre el destino de la humanidad, lo mejor es primero ver dónde ha caído su bolsillo.


El privilegio del líder carismático


On November 17, 2023, Altman was removed by the board he personally selected, citing "lack of candor in communications with the board."


Lo que sucedió en los próximos cinco días fue menos una batalla comercial y más una votación de fe. El presidente Greg Brockman renunció; más de 700 empleados, el 95% de la compañía, firmaron una carta conjunta exigiendo la renuncia de la junta directiva o de lo contrario se trasladarían colectivamente a Microsoft; el CEO de Microsoft, el mayor inversionista, Nadella, se pronunció públicamente a favor, diciendo que estaría encantado de recibir a Altman de vuelta. Finalmente, Altman regresó como rey, recuperó su cargo y eliminó a casi todos los miembros de la junta que se oponían a él.


¿Por qué un CEO calificado oficialmente por la junta como «poco sincero» puede regresar sin sufrir consecuencias y hasta con más poder?


La miembro del consejo expulsada, Helen Toner, reveló detalles posteriores. Altman ocultó al consejo su control real sobre el fondo de emprendimiento de OpenAI; mintió repetidamente sobre los procesos clave de seguridad de la empresa; e incluso sobre el lanzamiento de ChatGPT, el consejo lo supo por Twitter. Estas acusaciones, cualquiera de ellas, bastarían para destituir a un CEO cien veces.


Pero Ultraman está bien, porque no es un CEO común, es un «líder carismático».


Este es un concepto propuesto por el sociólogo Max Weber hace cien años, que describe un tipo de autoridad que no proviene del cargo ni de la ley, sino de la «carisma personal» del líder. Los seguidores lo creen, no porque haya hecho algo correcto, sino porque él es él. Esta creencia es irracional. Cuando el líder comete un error o es cuestionado, la primera reacción de los seguidores no es cuestionar al líder, sino atacar al que lo desafía.


Así son los empleados de OpenAI. No creen en la justicia procesal del consejo, solo creen en el "destino" que representa Altman, y sienten que ese grupo del consejo está "obstruyendo el progreso humano".


Tras el regreso de Altman, el equipo de seguridad de OpenAI fue disuelto rápidamente. Ilya Sutskever, el científico jefe que lideró la expulsión de Altman, también se fue más tarde. En mayo de 2024, Jan Leike, jefe del equipo de seguridad, renunció y escribió en Twitter: "La cultura y los procesos de seguridad de la empresa se han sacrificado para lanzar productos brillantes y atractivos".



Ante un «líder carismático», los hechos no importan, los procesos no importan, la seguridad tampoco importa. Lo único que importa es la fe.


Los profetas de la cadena de producción


Sam Altman es simplemente el modelo más reciente y más exitoso de la línea de producción de «profetas» de Silicon Valley.


En esta línea de producción, aún hay muchas personas que conocemos bien.


Por ejemplo, Musk. En 2014, decía por todas partes que «la IA está invocando al demonio». Pero su Tesla es la empresa robótica más grande del mundo y el escenario de aplicación de IA más complejo. Tras su ruptura con Altman, fundó xAI en 2023 y declaró una guerra abierta. Solo un año después, la valoración de xAI ya superaba los 20.000 millones de dólares. Mientras advierte sobre la llegada del demonio, él mismo crea otro demonio. Esta narrativa dual de autocontradicción es idéntica a la de Altman.


Por ejemplo, Zuckerberg. Hace unos años, apostó toda la empresa al metaverso, gastando casi 90 mil millones de dólares, solo para descubrir que era un agujero. Entonces, dio un giro brusco y cambió la narrativa central de la empresa del metaverso al AGI. En 2025, anunció la creación del «Laboratorio de Superinteligencia» y reclutó personal directamente. Es el mismo gran visionario sobre el futuro de la humanidad, la misma historia de capital que requiere inversiones astronómicas, el mismo papel de salvador.



También está Peter Thiel. Como mentor de Altman, es más bien el arquitecto principal de esta línea de producción. Mientras invierte en empresas que promueven el «punto de singularidad tecnológica» y la «inmortalidad», compra tierras en Nueva Zelanda y construye refugios apocalípticos; solo pasó 12 días en Nueva Zelanda antes de obtener la ciudadanía. Su empresa Palantir es una de las mayores compañías de monitoreo de datos del mundo, con clientes principalmente gubernamentales y militares. Mientras se prepara para el colapso de la civilización, también fabrica las herramientas de vigilancia más afiladas para quienes detentan el poder. Durante la operación militar contra Irán a principios de 2026, la plataforma de inteligencia artificial de Palantir actuó como cerebro, integrando enormes cantidades de datos provenientes de satélites espías, interceptaciones de comunicaciones, drones y análisis del modelo Claude, transformando información caótica en datos accionables en tiempo real, lo que finalmente permitió identificar y ejecutar un ataque decapitador.


Cada uno de ellos desempeña un doble papel: el de «advertir que el fin está cerca» y el de «impulsar el fin». Esto no es un trastorno de personalidad, sino un modelo de negocio validado por los mercados financieros como el más eficiente. Capturan atención, capital y poder mediante la creación y la venta de ansiedad estructural. Son el producto de este sistema, así como sus arquitectos: el mal detrás de la gran narrativa.


Silicon Valley has long been more than just a source of technology; it is a factory that manufactures "modern myths."


¿Por qué esta trampa siempre funciona?


Cada pocos años, Silicon Valley da a luz a un nuevo profeta que arrasa con la atención del capital, los medios y el público mediante una narrativa grandiosa sobre el apocalipsis y la redención. Este truco se repite una y otra vez, y siempre funciona. Cada uno de sus componentes ataca con precisión las vulnerabilidades específicas del认知 humano.


Paso uno: Gestionar el ritmo del miedo, no solo generar miedo.


Los riesgos potenciales de la IA son reales, pero podrían haberse discutido con calma. Es este grupo el que eligió activamente presentarlos de la manera más dramática, y además, tienen un control preciso sobre el ritmo de liberación del miedo.


Cuándo hacer que el público sienta miedo, cuándo ofrecer esperanza y cuándo volver a elevar la alerta, todo está diseñado. El miedo es el combustible, pero el momento y la forma de encenderlo son la verdadera técnica.


Paso 2: Convertir la incomprensibilidad técnica en una fuente de autoridad.


La IA es una caja negra completamente opaca para la mayoría de las personas. Cuando aparece algo tan complejo que no se puede comprender adecuadamente, las personas entregan instintivamente el derecho a explicarlo a "quien mejor lo entienda". Ellos comprenden profundamente esto y lo convierten en una ventaja estructural: cuanto más misteriosa, peligrosa y fuera del alcance de la comprensión humana describen la IA, más irremplazables se vuelven ellos.


Lo aterrador de esta lógica es que es autorreforzante. Cualquier cuestión externa se disipa automáticamente porque el que cuestiona «no entiende suficiente». Los reguladores no entienden la tecnología, por lo que sus juicios no son confiables; los críticos de la academia no han trabajado en modelos en el terreno, por lo que sus preocupaciones son meras teorías. En última instancia, solo ellos mismos tienen el derecho de juzgarse a sí mismos.


Paso 3: Reemplace «interés» con «significado» para que los seguidores renuncien voluntariamente a la crítica.


Esta es la capa más difícil de detectar de todo el sistema, y también la fuente de su poder más duradero. Lo que venden nunca es solo un trabajo o un producto, sino una historia con significado cósmico: estás decidiendo el destino de la humanidad. Una vez aceptada esta narrativa, los seguidores renuncian voluntariamente a su juicio independiente, porque cuestionar las motivaciones del líder ante una misión que involucra la «supervivencia de la humanidad» los hace parecer insignificantes, e incluso como obstáculos históricos. Esto lleva a las personas a entregar voluntariamente su capacidad crítica, y a interpretar esta entrega como una elección noble.


Al poner juntas estas tres etapas, entenderás por qué este sistema es tan difícil de desafiar. No depende de mentiras, sino de una comprensión precisa de la estructura cognitiva humana. Primero crea un miedo que no puedes ignorar, luego monopoliza la interpretación de ese miedo y, finalmente, te convierte en su propagador más fiel mediante el «significado».


Y dentro de este sistema, Ultraman es el modelo que ha funcionado con mayor fluidez hasta la fecha.


¿Quién es el elegido?


Ultraman ha dicho constantemente que no posee acciones de OpenAI y que solo recibe un salario simbólico, lo que fue la base de su narrativa de "trabajar por amor".


Pero Bloomberg le calculó en 2024 que su patrimonio neto personal era de aproximadamente 2 mil millones de dólares. Esta riqueza proviene principalmente de una serie de inversiones que realizó como inversionista de capital de riesgo durante los últimos quince años. Su inversión inicial en la empresa de pagos Stripe, según se dice, generó retornos de cientos de millones de dólares; la salida a bolsa de Reddit también le reportó grandes ganancias. También invirtió en la empresa de fusión nuclear Helion: mientras afirmaba que el futuro de la IA depende de avances energéticos, realizó fuertes apuestas en fusión nuclear, y poco después OpenAI entró en negociaciones con Helion para adquirir grandes cantidades de electricidad. Él dice que se mantuvo al margen de las negociaciones, pero esta cadena de intereses es evidente para cualquiera.



Él realmente no tiene acciones directas en OpenAI, pero ha construido un vasto imperio de inversiones centrado en su persona alrededor de OpenAI. Cada una de sus grandes profecías sobre el futuro de la humanidad aporta valor a este imperio.


Ahora, ¿entiendes mejor su mochila de supervivencia llena de armas, oro y antibióticos, así como la propiedad en Big Sur lista para ser volada en cualquier momento?


Él nunca ocultó todo esto. El kit de supervivencia es real, el búnker es real, y la obsesión con el fin del mundo también lo es. Pero también es la persona que más se esfuerza por acelerar el fin del mundo. Ambas cosas no son contradictorias, porque en su lógica, el fin del mundo no necesita ser evitado, solo anticipado. Está obsesionado con interpretar el papel de la única persona que ve claramente el futuro y se prepara para él.


Ya sea preparar un kit de supervivencia físico o construir un imperio financiero alrededor de OpenAI, es esencialmente lo mismo: asegurar para ti mismo una posición de ganador más segura en un futuro incierto que tú mismo impulsas.


En febrero de 2026, apenas había declarado su línea roja de no utilizar la IA en la guerra cuando firmó un contrato con el Pentágono. Esto no es hipocresía, es una exigencia inherente a su modelo de negocio. La postura moral es parte del producto, y los contratos comerciales son la fuente de ganancias. Necesita desempeñar simultáneamente el papel de salvador compasivo y de profeta implacable del fin del mundo, porque solo al desempeñar ambos papeles puede continuar su historia y hacer evidente su «destino».


Lo realmente peligroso nunca ha sido la IA, sino aquellos que creen tener el derecho de definir el destino de la humanidad.


Haz clic para conocer los puestos disponibles en BlockBeats


¡Bienvenido al grupo oficial de律动 BlockBeats!

Grupo de suscripción de Telegram: https://t.me/theblockbeats

Grupo de Telegram: https://t.me/BlockBeats_App

Cuenta oficial de Twitter: https://twitter.com/BlockBeatsAsia

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.