Relatório do New York Times revela dúvidas internas da OpenAI sobre a confiabilidade de Sam Altman

iconTechFlow
Compartilhar
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumo

expand icon
Notícias on-chain do New York Times revelam dúvidas internas na OpenAI sobre a confiabilidade do CEO Sam Altman. Com base em mais de 100 entrevistas e documentos internos, o relatório afirma que Altman enganou o conselho e removeu medidas de segurança. Um documento de 70 páginas do ex-cientista-chefe Ilya Sutskever detalha a suposta desonestidade de Altman, incluindo afirmações falsas sobre o GPT-4. Dario Amodei, da Anthropic, observou em particular que “o problema da OpenAI é o próprio Sam”. O relatório também destaca a mudança da OpenAI de uma missão sem fins lucrativos voltada à segurança para uma entidade comercial, com protocolos-chave supostamente ignorados. Novas listagens de tokens e mudanças na estratégia corporativa agora estão sob escrutínio mais apertado nos setores de IA e cripto.

Artigo por Xiao Bing, Shenchao TechFlow

No outono de 2023, o cientista-chefe da OpenAI, Ilya Sutskever, sentou-se diante do computador e concluiu um documento de 70 páginas.

Este documento foi compilado a partir de registros de mensagens no Slack, arquivos de comunicação com RH e atas de reuniões internas, apenas para responder a uma pergunta: Sam Altman, a pessoa que controla possivelmente a tecnologia mais perigosa da história da humanidade, pode ser confiável?

A resposta de Sutskever, escrita na primeira linha da primeira página do arquivo, com o título da lista: "Sam demonstra um padrão de comportamento consistente……"

First: Lie.

Hoje, dois anos e meio depois, os jornalistas investigativos Ronan Farrow e Andrew Marantz publicaram no The New Yorker uma extensa reportagem de investigação. Entrevistaram mais de 100 pessoas envolvidas, obtiveram memorandos internos nunca antes divulgados e os mais de 200 páginas de anotações pessoais deixadas por Dario Amodei, fundador da Anthropic, durante seu período na OpenAI. A história reunida por esses documentos é muito mais desagradável do que a "luta pelo poder" de 2023: como a OpenAI passou de uma organização sem fins lucrativos criada para garantir a segurança da humanidade a uma máquina comercial, onde quase cada medida de segurança foi pessoalmente removida pela mesma pessoa.

A conclusão de Amodei nas notas é mais direta: “O problema da OpenAI é o próprio Sam.”

A configuração do "pecado original" da OpenAI

Para entender o peso desta reportagem, é preciso primeiro esclarecer o quão especial é a empresa OpenAI.

Em 2015, Altman e um grupo de elites da Vale do Silício fizeram algo quase sem precedentes na história empresarial: usar uma organização sem fins lucrativos para desenvolver possivelmente a tecnologia mais poderosa da história da humanidade. As responsabilidades do conselho estavam claramente definidas: a segurança tinha prioridade sobre o sucesso da empresa, e até mesmo sobre a sua sobrevivência. Em outras palavras, se um dia a IA da OpenAI se tornasse perigosa, o conselho teria a obrigação de fechar a empresa pessoalmente.

A arquitetura inteira se baseia em um pressuposto: a pessoa que controla a AGI deve ser extremamente honesta.

E se você errar a aposta?

A bomba central da reportagem era o documento de 70 páginas. Sutskever não participava de política de escritório; ele é um dos maiores cientistas de IA do mundo. Mas, em 2023, ele ficou cada vez mais convencido de uma coisa: Altman estava constantemente mentindo para os executivos e o conselho.

Um exemplo concreto: em dezembro de 2022, Altman garantiu em uma reunião do conselho que várias funcionalidades do próximo GPT-4 já haviam passado pela revisão de segurança. O membro do conselho Toner solicitou ver os documentos de aprovação e descobriu que duas das funcionalidades mais controversas (ajuste personalizado pelo usuário e implantação de assistente pessoal) não haviam recebido aprovação do painel de segurança.

Coisas ainda mais estranhas aconteceram na Índia. Um funcionário denunciou ao outro membro do conselho a "infração": a Microsoft lançou uma versão preliminar do ChatGPT na Índia antes de concluir as revisões de segurança necessárias.

Sutskever também anotou outro detalhe no memorando: Altman teria dito à ex-CTO Mira Murati que o processo de aprovação de segurança não era tão importante, pois o conselheiro jurídico geral da empresa já havia aprovado. Murati foi confirmar com o conselheiro jurídico geral, que respondeu: "Não sei de onde Sam tirou essa impressão."

As 200 páginas de apontamentos privados de Amodei

Os arquivos de Sutskever parecem um memorial de acusação de um promotor. Os mais de 200 páginas de anotações deixadas por Amodei parecem mais um diário escrito por uma testemunha na cena do crime.

Nos anos em que Amodei foi responsável pela segurança na OpenAI, testemunhou diretamente a empresa recuar passo a passo sob pressão comercial. Em suas anotações, ele registrou um detalhe-chave do investimento da Microsoft em 2019: ele havia incluído no estatuto da OpenAI uma cláusula de "fusão e assistência", que dizia que, se outra empresa descobrisse um caminho mais seguro para a AGI, a OpenAI deveria parar de competir e passar a ajudar essa empresa. Esse era o maior garantia de segurança que ele valorizava em toda a transação.

Ao assinar o contrato rapidamente, Amodei percebeu algo: a Microsoft obteve o direito de veto sobre este termo. O que significa isso? Mesmo que um dia algum concorrente encontre um caminho melhor, a Microsoft pode simplesmente bloquear a obrigação da OpenAI de ajudar. O termo ainda está no papel, mas desde o dia da assinatura, tornou-se papel em branco.

Amodei posteriormente deixou a OpenAI e fundou a Anthropic. A competição entre as duas empresas baseia-se em divergências fundamentais sobre "como a IA deveria ser desenvolvida".

Compromisso de 20% de poder de processamento desaparecido

Há um detalhe na reportagem que, ao ser lido, deixa o leitor com a espinha gelada, sobre a "equipe de superalinhamento" da OpenAI.

Em meados de 2023, Altman entrou em contato por e-mail com um estudante de doutorado em Berkeley que pesquisava "alinhamento enganoso" (IA se comportando bem em testes, mas agindo de forma diferente após implantação), dizendo que estava muito preocupado com esse problema e considerando criar um prêmio de pesquisa global de US$1 bilhão. O estudante ficou inspirado, tirou uma licença dos estudos e se juntou à OpenAI.

Em seguida, Altman mudou de ideia: em vez de premiações externas, criaria uma "equipe de superalinhamento" internamente. A empresa anunciou publicamente que alocaria "20% da capacidade de computação existente" para essa equipe, com um valor potencial superior a US$ 1 bilhão. O anúncio foi feito com linguagem extremamente séria, afirmando que, se o problema de alinhamento não for resolvido, a AGI poderia levar à "despossessão da humanidade ou até à extinção humana".

Jan Leike, nomeado para liderar a equipe, disse posteriormente aos jornalistas que esse compromisso em si era um "ferramenta de retenção de talentos" muito eficaz.

E na realidade? Quatro pessoas que trabalharam na equipe ou tiveram contato próximo dizem que a potência de mineração realmente alocada foi de apenas 1% a 2% do total da empresa, e ainda assim com hardware mais antigo. A equipe foi posteriormente desmantelada, sem concluir sua missão.

Quando os jornalistas pediram para entrevistar os responsáveis da OpenAI pela pesquisa em "segurança existencial", a resposta da assessoria de imprensa da empresa foi cômica e triste: "Isso não é uma coisa... que realmente existe."

Altman, por sua vez, está tranquilo. Ele disse aos jornalistas que sua "intuição não está alinhada com muitas abordagens tradicionais de segurança da IA", mas que a OpenAI ainda realizará "projetos de segurança, ou pelo menos projetos relacionados à segurança".

CFO desativado e IPO iminente

A reportagem da The New Yorker foi apenas metade das más notícias desse dia. No mesmo dia, The Information revelou outra grande notícia: a CFO da OpenAI, Sarah Friar, teve uma séria divergência com Altman.

Friar disse em particular aos colegas que acha que a OpenAI ainda não está pronta para fazer uma oferta pública este ano. Duas razões: a quantidade de trabalho procedural e organizacional a ser concluído é muito grande, e o risco financeiro associado à promessa de Altman de gastos de 600 bilhões de dólares em capacidade de computação em cinco anos é muito alto. Ela nem tem certeza se o crescimento da receita da OpenAI conseguirá sustentar essas promessas.

Mas Altman quer acelerar o IPO ainda no quarto trimestre deste ano.

Mais absurdo ainda: Friar já não relata mais diretamente a Altman. A partir de agosto de 2025, ela passou a relatar a Fidji Simo (CEO de negócios de aplicativos da OpenAI). E Simo acabou de tirar licença médica por motivos de saúde na semana passada. Avalie essa situação: uma empresa em processo de IPO, com divergências fundamentais entre o CEO e o CFO, o CFO não relata ao CEO e o superior do CFO está de licença.

Até os executivos internos da Microsoft não conseguiram mais suportar, dizendo que Altman "distorceu fatos, quebrou promessas e constantemente revogou acordos já alcançados". Um executivo da Microsoft chegou a dizer: "Acho que há uma probabilidade significativa de ele acabar sendo lembrado como um golpista na categoria Bernie Madoff ou SBF."

A imagem de "homem de duas caras" de Altman

Um ex-membro do conselho da OpenAI descreveu para jornalistas duas qualidades de Altman. Esta frase pode ser o retrato mais impactante da pessoa em toda a reportagem.

O diretor disse que Altman possui uma combinação extremamente rara de traços: em cada interação cara a cara, ele tem um forte desejo de agradar e ser apreciado pela outra pessoa. Ao mesmo tempo, ele demonstra uma indiferença quase sociopática em relação às consequências de enganar os outros.

É extremamente raro que ambas as qualidades estejam presentes ao mesmo tempo em uma pessoa. Mas, para um vendedor, esse é o dom mais perfeito.

Uma metáfora no relatório expressa bem isso: Jobs era famoso por seu "campo de distorção da realidade", capaz de fazer o mundo acreditar em sua visão. Mas mesmo Jobs nunca disse a um cliente: "Se você não comprar meu leitor de MP3, as pessoas que você ama morrerão".

Altman já disse algo parecido sobre IA.

Um problema de integridade de um CEO por que é um risco para todos

Se Altman fosse apenas o CEO de uma empresa de tecnologia comum, essas acusações seriam, no máximo, um bom boato empresarial. Mas a OpenAI não é comum.

Segundo suas próprias palavras, está desenvolvendo a tecnologia mais poderosa da história da humanidade — capaz de reestruturar a economia global e o mercado de trabalho (a OpenAI acabou de publicar um documento de política sobre o desemprego causado pela IA), além de poder ser usada para criar armas bioquímicas em larga escala ou realizar ataques cibernéticos.

Todos os mecanismos de segurança são meramente formais. A missão sem fins lucrativos do fundador cedeu lugar à corrida para uma IPO. O ex-cientista-chefe e o ex-responsável por segurança consideram o CEO "inconfiável". Parceiros comparam o CEO a SBF. Nesta situação, por que o CEO teria o direito de decidir unilateralmente quando lançar um modelo de IA que pode alterar o destino da humanidade?

Gary Marcus (professor de IA da Universidade de Nova York e defensor de longa data da segurança da IA) escreveu uma frase após ler a reportagem: Se algum modelo futuro da OpenAI puder criar armas bioquímicas em larga escala ou lançar ataques cibernéticos catastróficos, você realmente se sente seguro em deixar que Altman decida sozinho se deve ou não liberá-lo?

A resposta da OpenAI ao The New Yorker foi concisa: "A maior parte deste artigo reprocessa eventos já relatados, por meio de alegações anônimas e anedotas seletivas, com fontes claramente com objetivos pessoais."

A forma como Altman respondeu: não responde às acusações específicas, não nega a autenticidade do memorando, apenas questiona os motivos.

Sobre o corpo sem fins lucrativos, cresceu uma árvore da fortuna

Os dez anos da OpenAI, escritos como um esboço de história são assim:

Um grupo de idealistas preocupados com os riscos da IA criou uma organização sem fins lucrativos com uma missão. A organização alcançou avanços tecnológicos notáveis. O avanço atraiu capital massivo. O capital exige retorno. A missão começou a ceder espaço. A equipe de segurança foi desmantelada. Pessoas que questionavam foram expulsas. A estrutura sem fins lucrativos foi transformada em uma entidade com fins lucrativos. O conselho, que antes tinha o poder de encerrar a empresa, agora está cheio de aliados do CEO. A empresa, que anteriormente prometeu dedicar 20% da capacidade de processamento para proteger a segurança humana, agora tem assessores de comunicação dizendo: "Isso não é algo real".

O protagonista da história, mais de cem testemunhas o rotularam com o mesmo rótulo: "Não restrito pela verdade."

Ele está se preparando para levar esta empresa a IPO, com uma avaliação superior a 850 bilhões de dólares.

As informações deste artigo são compiladas de relatos públicos de múltiplos meios de comunicação, incluindo The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider e The Information.

Aviso legal: as informações nesta página podem ter sido obtidas de terceiros e não refletem necessariamente os pontos de vista ou opiniões da KuCoin. Este conteúdo é fornecido apenas para fins informativos gerais, sem qualquer representação ou garantia de qualquer tipo, nem deve ser interpretado como aconselhamento financeiro ou de investimento. A KuCoin não é responsável por quaisquer erros ou omissões, ou por quaisquer resultados do uso destas informações. Os investimentos em ativos digitais podem ser arriscados. Avalie cuidadosamente os riscos de um produto e a sua tolerância ao risco com base nas suas próprias circunstâncias financeiras. Para mais informações, consulte nossos termos de uso e divulgação de risco.