Sam Altman: O Capitalista Apocalíptico e o Negócio do Medo

iconBlockbeats
Compartilhar
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumo

expand icon
Sam Altman, figura-chave no Vale do Silício, construiu um império de investimentos de US$ 20 bilhões ao promover narrativas de apocalipse da IA. A OpenAI, anteriormente sem fins lucrativos, é agora uma entidade comercial de mais de US$ 100 bilhões. Críticos chamam sua abordagem de hipócrita—alertar sobre riscos da IA enquanto acelera seu crescimento. Altman utiliza pressão regulatória estrategicamente, mantendo o poder por meio de liderança carismática. Traders que usam TA para criptoativos frequentemente analisam níveis de suporte e resistência ao avaliar o sentimento do mercado em torno de ações de tecnologia impulsionadas por IA e criptoativos relacionados.
Artigo | Sleepy.txt


Em 2016, The New Yorker publicou uma matéria especial sobre Sam Altman, intitulada "O Destino de Sam Altman". Na época, ele tinha 31 anos e já era presidente da Y Combinator, o incubador mais poderoso da Silicon Valley.


Há um detalhe no rascunho dizendo que Ultraman gosta de dirigir rapidamente, possui cinco carros esportivos e gosta de alugar aviões para pilotar. Ele disse ao jornalista que tem duas malas, uma das quais é uma bolsa de fuga pronta para ser usada a qualquer momento.


Ele também preparou armas de fogo, ouro, iodeto de potássio (para proteção contra radiação nuclear), antibióticos, baterias, água, máscaras de gás de nível das Forças de Defesa de Israel, além de um terreno em Big Sur (um famoso destino costeiro na Califórnia), onde pode ir de avião para se refugiar a qualquer momento.


Dez anos depois, Ultraman tornou-se aquele mais dedicado a criar o apocalipse e mais dedicado a vender a arca. Enquanto alertava o mundo de que a IA destruiria a humanidade, acelerava manualmente esse processo; dizia que não estava interessado em dinheiro, mas construía um império de investimentos pessoais valendo 2 bilhões de dólares; pedia regulamentação, mas expulsava todos os que tentavam frear o avanço.


Mais do que um louco esquizofrênico ou um golpista infalível, ele é simplesmente o produto mais padrão e mais bem-sucedido produzido pela enorme máquina da Vale do Silício. Seu “destino” é transformar a ansiedade coletiva da humanidade em seu cetro e coroa.


O fim do mundo é um bom negócio


O modelo de negócios de Ultraman pode ser explicado em uma frase: transformar um negócio em uma santa guerra sobre a sobrevivência da humanidade.


Ele vem treinando esse estilo desde a era YC. Transformou a YC, que era originalmente uma pequena oficina que fornecia alguns milhares de dólares para startups iniciais, em um vasto império de empreendedorismo. Criou um laboratório da YC para financiar projetos que não eram lucrativos, mas soavam grandiosos. Disse aos jornalistas que o objetivo da YC era financiar “todos os campos importantes”.


Na OpenAI, ele levou esse método ao extremo. Ele vende um pacote completo de visão de mundo: o apocalipse da IA + uma solução de redenção.


Ele é mais qualificado do que qualquer outra pessoa para descrever o "risco de extinção" trazido pela IA. Ele se uniu a centenas de cientistas para afirmar que os riscos da IA são comparáveis aos de uma guerra nuclear. Durante seu testemunho no Senado, ele disse: "Sentimos um pouco de medo (em relação ao potencial da IA) — e as pessoas deveriam se alegrar com isso." Ele sugeriu que esse medo é, por si só, um aviso benéfico.


Cada uma dessas frases poderia capa de jornal, cada uma está fazendo publicidade gratuita para a OpenAI. Esse medo cuidadosamente planejado é a alavanca de atenção mais eficiente. Uma tecnologia que “aumenta a eficiência” e uma tecnologia que “pode destruir a humanidade” — qual delas deixa o capital e a mídia mais entusiasmados? A resposta é óbvia.


Na parte da redenção, ele também tem um produto pronto: Worldcoin. Quando o medo é implantado na consciência pública, a venda da solução torna-se lógica. Usando uma esfera prateada do tamanho de uma bola de basquete, escanear globalmente as íris humanas, dizendo-se para distribuir dinheiro a todos na era da IA. A história é bem contada, mas essa prática de trocar dados biométricos por dinheiro logo chamou a atenção de governos de diversos países. Mais de uma dúzia de países, incluindo Quênia, Espanha, Brasil, Índia e Colômbia, suspenderam ou investigaram o Worldcoin por questões de privacidade de dados.



Mas para Ultraman, isso pode não ser importante de forma alguma. O importante é que, por meio desse projeto, ele conseguiu se posicionar como a única pessoa com a solução.


Vender medo e esperança é o modelo de negócio mais eficiente desta era.


A regulamentação é minha arma, não minha corrente


Como alguém que fala constantemente sobre o fim do mundo faz negócios? A resposta de Ultraman é: transformar a regulamentação em sua própria arma.


Em maio de 2023, ele compareceu pela primeira vez ao Congresso dos EUA. Em vez de reclamar da regulamentação, como outros CEOs de empresas de tecnologia, ele propôs ativamente: “Por favor, nos regulamentem.” Ele sugeriu a criação de um sistema de licenciamento de IA, no qual apenas empresas com licença poderiam desenvolver modelos grandes. Essa imagem pública transmitia um líder industrial muito responsável, mas naquele momento, a OpenAI liderava amplamente em termos tecnológicos, e um sistema regulatório rigoroso e de alta barreira entraria principalmente para impedir todos os concorrentes potenciais.


No entanto, com o passar do tempo, especialmente após concorrentes como o Google e a Anthropic alcançarem avanços tecnológicos e a comunidade de código aberto começar a ganhar força, a postura de Altman sobre a regulamentação sofreu uma mudança sutil. Ele passou a enfatizar, em diferentes ocasiões, que regulamentações excessivamente rígidas, especialmente aquelas que exigem revisão obrigatória antes da liberação por empresas de IA, podem sufocar a inovação e serem “desastrosas”.


Neste momento, a regulamentação não é mais uma barreira protetora, mas sim um obstáculo.


Quando está em vantagem absoluta, apela à regulação para consolidar essa vantagem; quando a vantagem desaparece, apela à liberdade para buscar uma ruptura. Ele até tentou estender sua influência até o topo da cadeia produtiva. Propôs um plano de chips de US$ 7 trilhões, buscando o apoio de fundos soberanos, como o da Emirados Árabes Unidos, com a intenção de redefinir o cenário global da indústria de semicondutores. Isso vai muito além do alcance de um CEO, parecendo mais o plano de um ambicioso que busca influenciar o cenário global.



Por trás de tudo isso está a rápida transformação da OpenAI de uma organização sem fins lucrativos em uma巨兽 comercial. Fundada em 2015, sua missão era "garantir com segurança que a IAG beneficie toda a humanidade". Em 2019, ela criou uma subsidiária de "lucro limitado". No início de 2024, descobriu-se que a palavra "com segurança" havia sido removida silenciosamente da declaração de missão da OpenAI. Embora a estrutura da empresa ainda seja de "lucro limitado", o ritmo de comercialização claramente acelerou. Correspondentemente, houve um crescimento explosivo na receita, passando de dezenas de milhões de dólares em 2022 para mais de cem bilhões de dólares em receita anualizada em 2024, com sua avaliação subindo de 29 bilhões para a faixa de US$ 1 trilhão.


Quando alguém começa a olhar para o céu estrelado e falar sobre o destino da humanidade, é melhor primeiro verificar onde caiu sua bolsa de dinheiro.


Direito de imunidade do líder carismático


Em 17 de novembro de 2023, Otman foi demitido pelo conselho que ele mesmo escolheu, sob o motivo de "falta de sinceridade na comunicação com o conselho".


O que aconteceu nos próximos cinco dias foi menos uma batalha comercial e mais um referendo de fé. O presidente Greg Brockman renunciou; 95% dos funcionários da empresa, mais de 700 pessoas, assinaram uma carta coletiva exigindo a renúncia do conselho ou sua migração coletiva para a Microsoft; o CEO da Microsoft, Nadella, o maior investidor, declarou publicamente seu apoio, dizendo que estava sempre disposto a receber Altman de volta. No final, Altman retornou como rei, restaurando seu cargo e removendo quase todos os membros do conselho que se opunham a ele.


Por que um CEO oficialmente considerado «não sincero» pelo conselho pode retornar ileso e até com mais poder?


O membro do conselho expulso, Helen Toner, revelou detalhes posteriormente. Altman ocultou do conselho seu controle real sobre o fundo de empreendimentos da OpenAI; mentiu repetidamente sobre os processos críticos de segurança da empresa; e até mesmo sobre o lançamento do ChatGPT, um evento tão grande, o conselho ficou sabendo pelo Twitter. Essas acusações, qualquer uma delas, seriam suficientes para demitir um CEO cem vezes.


Mas Ultraman está bem. Porque ele não é um CEO comum, é um “líder carismático”.


Este é um conceito proposto pelo sociólogo Max Weber há cem anos, que descreve um tipo de autoridade que não deriva de um cargo nem da lei, mas sim da "carisma pessoal extraordinária" do líder. Os seguidores acreditam nele não porque ele fez algo certo, mas porque ele é quem é. Essa crença é irracional. Quando o líder erra ou é desafiado, a primeira reação dos seguidores não é questionar o líder, mas atacar o desafiador.


Os funcionários da OpenAI são assim. Eles não acreditam na justiça processual do conselho; eles só acreditam no "destino" representado por Altman, e sentem que as pessoas do conselho estão "obstruindo o progresso humano".


Após o retorno de Altman, a equipe de segurança da OpenAI foi rapidamente dissolvida. Ilya Sutskever, o cientista-chefe que liderou a demissão de Altman, também acabou saindo. Em maio de 2024, Jan Leike, líder da equipe de segurança, renunciou, escrevendo no Twitter: “A cultura e os processos de segurança da empresa foram sacrificados para lançar produtos brilhantes.”



Diante de um "líder carismático", os fatos não importam, os processos não importam, a segurança também não importa. O único que importa é a fé.


Os profetas da linha de produção


Sam Altman é apenas o modelo mais recente e mais bem-sucedido da linha de produção de «profetas» de Silicon Valley.


Nesta linha de produção, ainda há muitas pessoas que conhecemos bem.


Por exemplo, Musk. Em 2014, ele dizia por toda parte que "IA está invocando o demônio". Mas sua Tesla é, ao mesmo tempo, a maior empresa de robótica do mundo e o cenário de aplicação de IA mais complexo. Após a ruptura com Altman, ele fundou a xAI em 2023, declarando guerra abertamente. Apenas um ano depois, a avaliação da xAI já ultrapassou 20 bilhões de dólares. Ele alerta sobre a chegada do demônio, enquanto constrói outro demônio com as próprias mãos. Essa narrativa binária de autoconflito é idêntica à de Altman.


Por exemplo, Zuckerberg. Nos últimos anos, ele apostou toda a fortuna da empresa no metaverso, gastando quase 90 bilhões de dólares, apenas para descobrir que era uma armadilha. Então, rapidamente mudou de rumo, substituindo a narrativa central da empresa do metaverso pela AGI. Em 2025, ele anunciou a criação do “Laboratório de Superinteligência” e pessoalmente recrutou talentos. Outra grande visão sobre o futuro da humanidade, outra história de capital que exige investimentos astronômicos, o mesmo tom de salvador.



Também há Peter Thiel. Como mentor de Altman, ele é mais como o arquiteto-chefe desta linha de produção. Enquanto investe em empresas que promovem o "ponto de singularidade tecnológica" e a "imortalidade", ele compra terras na Nova Zelândia e constrói abrigos apocalípticos, obtendo a cidadania após apenas 12 dias no país. Sua empresa, a Palantir, é uma das maiores empresas de monitoramento de dados do mundo, com clientes principalmente governos e forças armadas. Enquanto se prepara para o colapso da civilização, ele cria as ferramentas de vigilância mais afiadas para os detentores do poder. Na operação militar contra o Irã no início de 2026, foi exatamente a plataforma de inteligência artificial da Palantir que atuou como cérebro, integrando grandes volumes de dados provenientes de satélites espiões, interceptações de comunicações, drones e análises do modelo Claude, transformando informações caóticas em dados acionáveis em tempo real, finalmente localizando e executando o alvo.


Cada um deles desempenha o papel duplo de “alertar sobre o fim do mundo” e “impulsionar o fim do mundo”. Isso não é um distúrbio de personalidade; é um modelo de negócios validado pelo mercado financeiro como o mais eficiente. Eles capturam atenção, capital e poder por meio da criação e venda de ansiedade estrutural. São produtos desse sistema, bem como seus moldadores, o “mal por trás da grande narrativa”.


A Silicon Valley há muito tempo deixou de ser apenas um lugar que produz tecnologia; é uma fábrica de "mitos modernos".


Por que esse truque sempre funciona?


A cada alguns anos, a Silicon Valley produz um novo profeta, que envolve o capital, a mídia e a atenção do público com uma grande narrativa sobre o apocalipse e a redenção. Esse truque é repetido uma e outra vez, mas sempre funciona. Cada etapa dele ataca com precisão vulnerabilidades específicas da cognição humana.


Primeiro passo: Gerenciar o ritmo do medo, e não apenas criar medo.


Os riscos potenciais da IA são reais, mas poderiam ter sido discutidos com calma. É este grupo que escolheu ativamente apresentá-los da maneira mais dramática possível e, além disso, possui um controle preciso sobre o ritmo de liberação do medo.


Quando causar medo ao público, quando oferecer esperança e quando elevar novamente o alerta é tudo planejado. O medo é o combustível, mas o momento e a maneira de acender são a verdadeira técnica.


Passo 2: Transforme a incompreensibilidade técnica em uma fonte de autoridade.


A IA é uma caixa preta totalmente opaca para a maioria das pessoas. Quando surge algo complexo demais para ser plenamente compreendido, as pessoas instinctivamente transferem o direito de explicá-lo para “aqueles que mais entendem”. Elas compreendem profundamente isso e transformaram isso em uma vantagem estrutural: quanto mais misteriosa, perigosa e além da compreensão comum descrevem a IA, mais insubstituíveis se tornam.


O aspecto aterrador desse raciocínio é que ele é auto-reforçador. Qualquer questionamento externo é automaticamente desconsiderado porque o questionador «não entende o suficiente». Os reguladores não entendem a tecnologia, então seus julgamentos não são confiáveis; os críticos da academia nunca trabalharam em modelos no campo, então suas preocupações são apenas teóricas. No final, apenas eles mesmos têm o direito de julgar a si mesmos.


Passo 3: Substitua "interesse" por "significado" para incentivar os seguidores a abandonarem criticamente.


Esta é a camada mais difícil de ser detectada em todo o sistema e a fonte mais duradoura de seu poder. Eles nunca vendem apenas um emprego ou um produto, mas uma história com significado cósmico: você está decidindo o destino da humanidade. Uma vez aceita essa narrativa, os seguidores abandonam voluntariamente seu julgamento independente, pois questionar as motivações do líder, diante de uma missão que envolve a “sobrevivência da humanidade”, faz com que se sintam pequenos, quase como obstáculos históricos. Isso leva as pessoas a entregar voluntariamente sua capacidade crítica e a interpretar essa entrega como uma escolha elevada.


Juntando esses três passos, você entenderá por que esse sistema é tão difícil de abalar. Ele não depende de mentiras, mas sim de uma compreensão precisa da estrutura cognitiva humana. Primeiro, cria um medo que você não pode ignorar, depois monopoliza a explicação desse medo e, por fim, usa o “significado” para transformá-lo em seu mais fiel divulgador.


E nesse sistema, Ultraman é o modelo que funcionou mais suavemente até agora.


Qual é o destino de quem?


Ultraman sempre disse que não possui ações da OpenAI e recebe apenas um salário simbólico, o que era a base da sua narrativa de "trabalhar por amor".


Mas a Bloomberg calculou em 2024 que seu patrimônio líquido pessoal era de aproximadamente 2 bilhões de dólares. Essa riqueza vem principalmente de uma série de investimentos que ele fez como VC nos últimos dez anos. Seu investimento inicial na empresa de pagamentos Stripe, segundo relatos, gerou retornos de centenas de milhões de dólares; sua participação no IPO do Reddit também lhe rendeu lucros consideráveis. Ele também investiu na empresa de fusão nuclear Helion, dizendo ao mesmo tempo que o futuro da IA depende de avanços energéticos, enquanto fazia apostas pesadas em fusão nuclear — e logo depois, a OpenAI entrou em negociações com a Helion para um grande contrato de compra de energia. Ele afirma ter se abstido das negociações, mas a cadeia de interesses é óbvia até para um leigo.



Ele realmente não possui ações diretas da OpenAI, mas construiu um vasto império de investimentos centrado em si mesmo em torno da OpenAI. Cada uma de suas grandes pregações sobre o futuro da humanidade injeta valor na expansão desse império.


Agora, ao olhar novamente para aquele kit de sobrevivência repleto de armas, ouro e antibióticos, e para aquele terreno em Big Sur pronto para ser decolado, você tem uma nova compreensão?


Ele nunca escondeu tudo isso. O kit de fuga é real, o abrigo é real, e a obsessão pelo apocalipse também é real. Mas ele também é a pessoa que mais se esforça para acelerar o apocalipse. Essas duas coisas não são contraditórias, pois, em sua lógica, o apocalipse não precisa ser impedido — apenas antecipado. Ele se dedica à obsessão de interpretar o papel da única pessoa que enxerga o futuro e se prepara para ele.


Seja preparar um kit de sobrevivência físico ou construir um império financeiro em torno da OpenAI, a essência é a mesma: garantir-se uma posição de vencedor mais certo em um futuro incerto que você mesmo impulsionou.


Em fevereiro de 2026, ele acabara de declarar a linha vermelha de não apoiar o uso de IA na guerra, e logo em seguida assinou um contrato com o Pentágono. Isso não é hipocrisia, é uma exigência intrínseca do seu modelo de negócios. Posturas morais são parte do produto, contratos comerciais são a fonte de lucro. Ele precisa desempenhar simultaneamente o papel de salvador compassivo e de profeta implacável do apocalipse, pois apenas ao desempenhar ambos os papéis sua história pode continuar, e seu “destino” pode se revelar claramente.


O verdadeiramente perigoso nunca foi a IA, mas sim aqueles que acreditam ter o direito de definir o destino da humanidade.


Clique para saber mais sobre as vagas em aberto na BlockBeats


Bem-vindo ao grupo oficial da BlockBeats:

Grupo de assinatura do Telegram: https://t.me/theblockbeats

Grupo de Telegram: https://t.me/BlockBeats_App

Conta oficial no Twitter: https://twitter.com/BlockBeatsAsia

Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações. Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.