Que drama! Este pode ser o retrospecto completo mais detalhado da grande guerra palaciana dos Ultraman da internet.
O outro protagonista do evento, Greg Brockman, segundo cargo da OpenAI, revelou pessoalmente:
O que aconteceu nas 72 horas após a demissão de Ultraman?

Verdades estão surgindo, mas são bem dolorosas:
Greg e Otman realmente não tinham nenhuma ideia antes do incidente, e até agora, as partes envolvidas ainda estão refletindo sobre qual etapa saiu errada.
O conselho inicialmente queria apenas demitir Ultraman, mas Greg foi muito leal e apresentou sua demissão no mesmo dia.
No dia seguinte à demissão, eles se reuniram secretamente na casa de Altman para planejar a nova empresa, até mesmo programando levar todos os funcionários.
O conselho mudou de ideia repentinamente; originalmente, quase havia acertado o retorno ao Otomã, mas nomeou repentinamente um novo CEO.
Durante todo o fim de semana, todos os concorrentes estavam recrutando freneticamente, mas ninguém aceitou.
A retratação de Ilya aliviou Greg.
Uma entrevista de mais de uma hora, na qual Greg esclareceu quase todos os detalhes dessa épica revolução da Vale do Silício e respondeu a tudo, incluindo a história de crescimento da OpenAI, por que mudou para o modelo de lucro e para onde irá no futuro...
Da incerteza ao deixar o Stripe, ao offsite decisivo no Vale de Napa, até a ruptura inesperada no projeto Dota, a densidade de informações é muito alta.

Greg até ficou várias vezes com a voz embargada:
Quando Ilya partiu, foi a única vez que senti que não queria mais continuar.
Aqui está a íntegra da entrevista de dez mil caracteres, com o conteúdo resumido e ajustado sem alterar o significado original.
Conversar com o presidente da OpenAI, Greg Brockman
(O seguinte chama-se brevemente Q a pergunta do apresentador Shane Parrish)
OpenAI nasceu da autoincerteza
P: Como a OpenAI foi fundada?
Greg: Eu sei que quero empreender, porque acho que isso tem um significado extraordinário.
Q: Mas você acabara de iniciar uma empresa na Stripe.
Greg: Sim, mas sempre acho que o problema que o Stripe busca resolver não é "o meu problema".
É certamente importante, e dediquei muitos anos a isso. Mas acho que, com ou sem mim, ele terá sucesso.
Então, naquela época, tive pela primeira vez a verdadeira oportunidade de refletir: qual é a missão na qual quero dedicar toda a minha vida? Um problema pelo qual estou disposto a lutar com o resto da minha vida, mesmo que seja apenas para torná-lo um pouco melhor.
A resposta é clara — IA.
Se você puder realmente influenciar a direção do desenvolvimento da IA no mundo, então sua vida não será em vão.
P: Quando você planejava deixar a Stripe, Patrick o encaminhou para conversar com Sam Altman — o que aconteceu nessa conversa?
Greg: Patrick me disse naquela época que Sam havia conhecido muitos jovens na mesma situação que eu.
Na verdade, eu sabia que o significado de Patrick era esperar que Sam me convencesse a ficar, mas após conversar com Sam por alguns minutos, ele ficou claro que eu tinha decidido ir embora.
Então Sam me perguntou o que eu planejava fazer a seguir, e eu disse a ele que estava considerando criar uma empresa de IA.
Sam disse que também está considerando fazer algo na área de IA e espera manter contato no futuro.
Após deixar a Stripe, conversei novamente com Sam, e desta vez Sam disse que tinha ideias mais específicas e me convidou para o jantar em julho.
Lembro que o tema do jantar era: agora é tarde demais para criar um laboratório e reunir os pesquisadores mais顶尖 do mundo? Ainda é possível?
Q: That was which year?
Greg: 2015.
Naquela época, a DeepMind já quase monopolizava todos os pesquisadores de ponta, financiamento e dados. Todos nós nos perguntávamos se ainda seria possível criar algo novo do zero?
Todos listaram inúmeros desafios, mas ninguém conseguiu apresentar uma razão verdadeiramente impossível.
Então naquela noite, Sam e eu dirigimos de volta para a cidade. Nos olhamos, e ele disse: "Precisamos fazer isso."
No dia seguinte, comecei a me dedicar totalmente à preparação.
É difícil, tudo é vago. Temos apenas uma visão: queremos construir inteligência artificial geral humana para trazer impacto positivo ao mundo e garantir que os benefícios alcancem a todos. Mas não temos ideia de como fazer isso ou como convencer as pessoas a deixar seus empregos e se juntarem a nós.
Inicialmente, minha equipe central consistia em Ilya, John Schulman e eu. Passamos muito tempo juntos discutindo várias visões e possíveis formas de funcionamento do laboratório, mas nada nunca se concretizou.
Parte da razão é a preocupação com a falta de impulso suficiente do projeto; Dario sente que precisa primeiro construir sua própria reputação e não tem certeza se o projeto é adequado para ele.
Ao mesmo tempo, comecei a recrutar John Schulman, que concordou. Mas Dario e Chris acabaram decidindo ir para o Google Brain, e a equipe ficou realmente reduzida a mim, Ilya, John e mais algumas pessoas.
Na época, cerca de dez pessoas demonstraram interesse, mas todas estavam aguardando para ver quem mais se juntaria.
Perguntei ao Sam como poderíamos quebrar esse impasse, e ele sugeriu levar todos para um evento off-site. Escolhemos o Vale de Napa, e eu fiz camisetas especialmente para isso.
Naquela época, ainda não havia oferta formal, nenhuma estrutura corporativa, nada. Tínhamos apenas uma ideia, uma visão e uma missão.
Mas quando trouxemos as pessoas para lá, no Napa Valley naquele dia, tivemos uma explosão de inspiração e quase definimos a rota tecnológica para os próximos dez anos:
1. Resolver problemas de aprendizado por reforço. 2. Resolver problemas de aprendizado não supervisionado. 3. Aprender gradualmente coisas mais complexas.
Após a reunião fechada, enviei uma oferta a todos, informando que iniciaremos nas próximas 2 a 3 semanas; quem estiver interessado em se juntar, por favor, me avise.
Q: Por que na época se achava que o DeepMind era difícil de superar?
Greg: Na época, o Google DeepMind era o gigante no campo da IA, com recursos financeiros abundantes e conquistas notáveis — ainda meses antes do lançamento do AlphaGo, mas sua vantagem já era evidente.
Por isso, duvidamos: é realmente possível criar uma nova instituição independente? A resposta não é clara.
Justificativas para abandonar o não lucrativo
Q: Quando você percebeu que o caminho sem fins lucrativos não funcionava?
Greg: Em 2017, começamos a pensar seriamente sobre como realmente realizar nossa missão e como realmente construir a AGI. Calculamos a demanda por poder de computação e descobrimos que precisaríamos de equipamentos de computação em escala supermassiva.
Na época, entramos em contato com a empresa Cerebras, que estava desenvolvendo um hardware de computação dedicado com desempenho muito superior ao nosso próprio cálculo de potência computacional.
Então percebemos que, se pudéssemos comprar muitos desses dispositivos, obter exclusivamente os produtos da Cerebras e construir data centers de grande escala, isso nos traria uma vantagem esmagadora.
Mas a arrecadação de fundos de organizações sem fins lucrativos tem um limite e não pode sustentar esse tipo de investimento. Por isso, Elon, Sam, Ilya e eu concordamos plenamente que o único caminho para a OpenAI realizar sua missão é criar uma entidade comercial associada.
O "momento GPT" da própria OpenAI
P: Quando você percebeu que tudo mudaria completamente? Antes ou depois do projeto Dota?
Greg: A forma como a OpenAI opera é uma sequência de momentos em que os sonhos se tornam realidade. Sempre que você acha que já entendeu o quadro completo, logo descobre novos limites.
Quando formamos a equipe pela primeira vez, ficamos muito empolgados por finalmente termos reunido a equipe e podermos começar a avançar em nossa missão. Mas no dia seguinte, ao chegarmos ao escritório, descobrimos que nem mesmo uma lousa havia.
O projeto Dota foi nosso primeiro grande sucesso, e realmente nos fez acreditar que, se nos dedicarmos totalmente, realmente conseguiremos realizar coisas. Ele provou que, ao reunir poder de computação e aumentar a capacidade de processamento, os resultados se tornam mais fortes.
Também há muitos desses momentos na série GPT, como um artigo anterior sobre neurônios de sentimento não supervisionados, quando vimos pela primeira vez o surgimento de semântica a partir do treinamento com objetivo de modelagem de linguagem.
Você treina um modelo para prever o próximo caractere e, de repente, obtém uma rede neural capaz de compreender emoções e distinguir entre positivo e negativo.
Naquele momento, percebemos que estávamos construindo máquinas capazes de aprender semântica, e não apenas regras gramaticais.
Quando o GPT-4 foi lançado, algumas pessoas perguntaram por que ele ainda não era AGI. Ele realmente consegue conversar fluentemente e quase atende a todas as nossas definições anteriores de AGI, mas ainda falta o último passo.
Ao longo do caminho, houve muitos momentos semelhantes que nos fizeram sentir que o sonho se tornou realidade, mas esses momentos ainda estão longe de terminar; teremos mais momentos inovadores e, em seguida, perceberemos que a próxima fase talvez seja possível.
P: Por que você acha que Dota é tão importante?
Greg: Dota é um momento incrível; ao contrário do Deep Blue jogando xadrez ou do AlphaGo jogando go, que têm regras claras, ele envolve interação em tempo real com humanos em um ambiente complexo e aberto, aproximando-se mais do mundo real.
Na verdade, inicialmente queríamos usá-lo apenas para validar um novo algoritmo, pois o aprendizado por reforço na época não podia ser escalado. Mas, à medida que aumentávamos continuamente a capacidade de processamento, conseguimos superar os melhores jogadores humanos com um algoritmo PPO extremamente simples, o que prova que:
Grande capacidade de processamento + algoritmo simples é realmente viável na prática.
Nesse ambiente extremamente caótico, onde não é possível programar, prever ou pesquisar, o que você precisa é quase uma intuição humana.
Naquela época, a rede neural usada era muito pequena, com um número de sinapses equivalente ao de um cérebro de inseto, e nos perguntamos: como seria se expandíssemos essa abordagem para a escala de um cérebro humano? Essa é uma excelente e muito atraente pergunta.
Q: Como se fala em previsão, você acha que há uma diferença entre previsão e raciocínio?
Greg: Acho que há uma conexão profunda entre ambos.
Parece simples prever apenas a próxima palavra, mas se você conseguir prever com precisão a próxima palavra de Einstein, então, pelo menos, você é tão inteligente quanto Einstein.
O núcleo da previsão não é antecipar informações conhecidas, mas inferir o desenvolvimento futuro em cenários novos nunca vistos, o que está profundamente ligado à essência da inteligência.
Os modelos de raciocínio atuais são divididos em duas etapas:
1. Aprendizado não supervisionado: treinar o modelo fazendo-o prever o que acontecerá a seguir. Os dados são mais estáticos e observacionais. 2. Aprendizado por reforço: fazer a IA aprender com seus próprios dados. Ela toma suas próprias ações, recebe feedback do mundo e aprende com isso. O método de treinamento ainda é essencialmente preditivo: prever os resultados após as ações e reforçar com base nos efeitos.
But fundamentally, the technology used in both stages is identical—both are predictions, just with different data structures.
Evento da pressão do Ultraman
Q: Desde quando as contradições internas se tornaram agudas?
Greg: O que torna a OpenAI especial é que acreditamos firmemente que podemos criar uma IA ao nível humano, o que significa que o risco é muito alto.
Quem está tomando as decisões? Quais valores estão por trás dessas decisões? Coisas que são irrelevantes em empresas comuns, como política de escritório, ganham aqui um peso de vida ou morte para a humanidade.
Acho que isso afetou muito o desenvolvimento interno da OpenAI e é a raiz de todos os grandes conflitos.
Um dos principais impulsionadores do campo da IA é o desejo das pessoas de estar no centro da revolução tecnológica e serem lembradas, por isso não é apenas um problema da OpenAI.
A tecnologia de IA é intrinsicamente fragmentada; sob pressão intensa, pode produzir diamantes ou rachaduras. Por isso, você frequentemente vê a formação de diamantes em pequenos grupos, pois eles colaboram intensamente e confiam plenamente uns nos outros. Mas, às vezes, eles também se separam e seguem seus próprios caminhos.
Acho que, no campo da IA, múltiplos caminhos e concorrência saudável são normais, permitindo-nos avançar com mais segurança na tecnologia e explorar questões difíceis, como segurança e ética.
Então, debates saudáveis sempre existiram dentro da OpenAI, mas agora, isso está acontecendo em todo o mundo.
Q: Então, voltemos ao momento em que você soube que Sam foi demitido, onde você estava?
Greg: Eu estava em casa. Recebi uma mensagem com um convite para uma chamada de vídeo e notei que todos os membros do conselho, exceto Sam, estavam lá. Logo senti que algo estava errado.
Eles me disseram que o conselho decidiu remover Sam do cargo. A informação que recebi era basicamente a mesma do comunicado público, então tentei pedir mais detalhes, mas fui recusado.
Em seguida, disseram que também fui removido do conselho, mas continuarei na empresa, pois sou essencial para a empresa e sua missão.
Voltei a pedir uma justificativa e fui novamente recusado. Por fim, disseram-me que, sob a nova arquitetura, talvez eu recebesse um retorno. Foi isso que ocorreu naquela ligação.
P: O que você estava pensando naquele momento? Sentiu raiva?
Greg: Não, só acho que isso não está correto, mas provavelmente consigo entender o que aconteceu.
Q: Quanto tempo depois você descobriu o que realmente causou tudo isso?
Greg: A resposta tem duas partes. Primeiro, acho que ainda estou descobrindo novos fatos, coisas que outras pessoas têm em mente. Em certa medida, isso se resume a uma má comunicação; você de repente percebe que havia várias coisas ignoradas anteriormente.
Por outro lado, eu tenho uma ideia aproximada do porquê cada um deles precisa fazer isso.
Mas naquele momento, procurar a razão já não era importante; eu simplesmente sabia que aquilo estava errado. Então, depois de desligar o telefone, imediatamente disse à minha esposa que ia me demitir, e ela também concordou.
Então, naquele dia, apresentei minha demissão.
Depois de deixar o emprego, comecei a receber muitas mensagens. Recebemos muito apoio e entusiasmo, e muitas pessoas estavam dispostas a nos acompanhar para iniciar um novo empreendimento, incluindo Jakob, Shimone e Alexander.
Depois, nos reunimos com Sam e começamos a planejar uma nova empresa.
No primeiro dia, achávamos que a probabilidade de Sam retornar era de apenas 10%. Então, organizamos uma reunião na casa de Sam, e muitas pessoas da empresa compareceram, apresentando a eles o quadro que estávamos desenhando. Em um único dia, tínhamos uma nova visão completa de como operar o projeto.
Naquele fim de semana, também passamos muito tempo negociando com o conselho e a empresa, tentando encontrar um caminho significativo para um retorno.
No domingo à noite, o conselho nomeou abruptamente um novo CEO para substituir minha posição, e a empresa entrou em total protesto. Na verdade, estávamos no escritório naquele momento, e estávamos prestes a fechar um acordo para podermos ir embora, quando o conselho mudou de ideia de repente.
A multidão começou a transbordar do prédio, em meio ao caos.
Começamos a fazer chamadas de vídeo com pessoas interessadas na nova empresa, acalmando-as dizendo que tudo ficará bem e que temos um plano. Estivemos tentando construir um bote salva-vidas para um pequeno grupo que pudesse se juntar a nós, mas de repente, parece que todos mudaram de ideia e querem se juntar à nossa nova empresa.
Sam também conversou com o CEO da Microsoft, Satya; anteriormente, estávamos discutindo se ele poderia apoiar nosso novo empreendimento. Desejamos ampliar o tamanho do bote salva-vidas, por exemplo, levando todos os funcionários da OpenAI.
Naquela época, na véspera do Dia de Ação de Graças, muitas pessoas deveriam estar voando para casa para se reunir com a família, mas todas cancelaram seus voos e o escritório estava cheio de pessoas.
Todos estavam lá, mesmo que não participassem da conversa, queriam testemunhar pessoalmente esse momento histórico.
Em seguida, a petição começou a se espalhar. Muitas pessoas tentaram assinar a petição ao mesmo tempo, o que chegou a causar uma falha no Google Docs, então acabaram designando certas pessoas para registrar os nomes, evitando assim muitos editores simultâneos.
Lembro que cheguei em casa por volta das 5 da manhã, dormi por 45 minutos, acordei e fiquei rolando o Twitter, onde vi um tweet do Ilya e assinei a petição dizendo que ele desejava que a empresa se reunisse novamente.
Foi realmente um momento de alívio. Estou muito grato e sinto que podemos recolocar tudo no lugar e voltar aos trilhos.
Q: Você e Ilya criaram esta empresa juntos; depois desse evento, como você se sente em relação ao seu relacionamento?
Greg: Foi difícil. Nós tínhamos um relacionamento extremamente próximo; ele foi o mestre de cerimônias no meu casamento, e passamos por muitos momentos extremamente difíceis juntos. Mas todo relacionamento tem seus altos e baixos.
Depois, passamos muito tempo realmente conversando, tentando entender e expressar o que havia se acumulado ou não sido dito entre nós. Através desse processo, acredito que alcançamos um estado muito bom.
For me, I feel we have come to terms with everything that has happened.
Q: Como você se sente sobre a lealdade dos funcionários que você inspirou?
Greg: Sou profundamente grato. Nunca solicitei isso voluntariamente e nunca esperei.
Acho que meu estilo de liderança é o de um líder que está na linha de frente, tentando liderar pelo exemplo, às vezes sendo um pouco emocional; eu não sempre olho para trás para ver se todos estão me seguindo, simplesmente continuo avançando.
Mas quando as pessoas realmente vieram ajudar a construir, senti-me muito grato e percebi que elas superaram minhas expectativas em todos os aspectos.
P: Então, no final, todos voltaram?
Greg: Na verdade, durante todo o fim de semana, todos os concorrentes estavam de olho. As pessoas recebiam várias ofertas, mas naquele fim de semana, não perdemos ninguém, ninguém aceitou nenhuma oferta. Isso é incrível.
Na verdade, o técnico Bill Belichick já me disse que as melhores equipes não jogam pelo dinheiro, mas pelas pessoas ao seu redor. Naquele momento, quando todos vieram nos apoiar, lembrei dessa frase.
Sem dúvida, este é um momento de diamante.
Pausa breve e reflexão pessoal
P: Depois de tudo isso, você tirou um tempo para descansar; o que você sentiu internamente?
Greg: Foi uma experiência intensa, tanto vivê-la quanto voltar para enfrentá-la.
Mas, honestamente, um dos momentos mais difíceis na história da OpenAI foi quando o Ilya saiu. Esse foi talvez o único momento na história da OpenAI em que senti que não queria mais continuar.
Acho que preciso de algum tempo para me reencontrar, para lembrar por que comecei isso, por que é tão importante e por que vale a pena suportar toda essa dor.
P: O que você fez durante o seu descanso?
Greg: Treinei um modelo de linguagem em sequências de DNA.
Na verdade, já fiz isso durante meu tempo na OpenAI, para a instituição de pesquisa biomédica sem fins lucrativos Arc. Apliquei minhas habilidades em um campo muito diferente, que tem grande significado pessoal para mim e minha esposa.
Minha esposa tem muitos problemas de saúde, e sempre nos perguntamos como a IA pode ajudar na saúde dela e até mesmo na saúde dos animais. Essa experiência também me fez perceber que talvez possamos aplicar a tecnologia em novos campos, cheios de humanidade.
P: Se você pudesse resumir tudo isso em uma página, desde a remoção de Sam até sua saída, a petição coletiva dos funcionários, as férias e o retorno, o que você escreveria?
Greg: Acho que aprendi que vale a pena persistir por coisas que valem a pena.
Se você tem uma missão importante, o fato de persistir através das altas e baixas é o que realmente importa. Haverá momentos em que “tudo está perdido” e momentos em que “voltamos”.
Você não pode deixar esses momentos te desviar; neste período, você deve cultivar sua própria resiliência. Porque, se você for um líder, as pessoas buscarão de você estabilidade, suporte e direção para avançar.
O que eu me esforço para cultivar é a capacidade de entender os detalhes do que fazemos e o significado de cada escolha, ao mesmo tempo em que sou decisivo.
Às vezes, vejo a OpenAI muito mais sob a perspectiva da incerteza: não sei qual é a resposta correta, não sei qual é a maneira certa de construir essa tecnologia ou como responder a essas questões difíceis.
Mas aqui há muitas pessoas muito inteligentes com opiniões fortes. Então, eu me esforço para entender todas essas opiniões e encontrar maneiras de integrá-las. Às vezes, essa é a abordagem correta. Mas às vezes você descobre que essas opiniões são contraditórias e não podem ser verdadeiras ao mesmo tempo.
Às vezes, você precisa fazer escolhas, e sabe que isso significará que algumas pessoas ficarão insatisfeitas, outras deixarão a empresa e algumas se sentirão desvalorizadas.
O que me esforço para fazer é ter uma consciência mais forte de mim mesmo e a consciência de que, quando tenho certeza de algo, devo agir.
Ao refletir sobre a jornada da OpenAI, acho que em algumas coisas, gostaria que tivéssemos feito diferente.
Normalmente, nesse tipo de situação, adiamos algo, já sabemos que alguém não é adequado para um determinado papel, achamos que uma direção técnica não está correta ou que um modelo de operação de projeto não é viável, mas simplesmente esperamos por muito tempo.
Esta é a lição que eu aprendi com meus esforços e um aspecto em que me esforço para crescer todos os dias, refletindo sobre a OpenAI, a Stripe e até projetos da minha época na universidade.
Acho que minha forma de operar é que eu amo muito as atividades diárias, a contribuição pessoal, o software e pensar sobre problemas, mas também me importo muito com o ambiente em que faço essas coisas.
Na verdade, estou disposto a abrir mão desse tipo de “prazer de primeira classe”, que é a satisfação imediata, como o que você atualmente criou, e em vez disso buscar o “prazer de segunda classe”, que é algo doloroso no momento, mas com valor a longo prazo.
Você cria um ambiente que permite que outros realizem trabalhos difíceis e conquistem grandes feitos. Portanto, esforçar-se para criar um ambiente é uma tendência natural para mim, embora nem sempre seja o mais fácil. Você realmente precisa estar disposto a suportar grande sofrimento pessoal.
Ilya sempre diz: "Você precisa sofrer"; se você não sofre, não está criando valor. Acho que há uma profunda verdade nisso.
Quanto à opinião de Ilya, acho interessante que ele tenha uma maneira única de falar, cujas palavras escolhidas sempre carregam uma inspiração profunda.
Essa imagem de “sofrimento” é algo em que pensamos ao longo de toda a jornada da OpenAI. Desde o início, tivemos muitas incertezas; tudo era extremamente difícil e extremamente incerto.
Muitas pessoas têm o hábito de esconder problemas sob o tapete e simplesmente dizer “avançar”. Acho que isso é uma parte negativa da cultura da Vale do Silício, pelo menos da estereótipo da Vale do Silício, mas acredito que isso não funciona na área de IA, não funciona na OpenAI, e nunca operamos assim.
Nossa forma de operar sempre foi enfrentar fatos duros e compreender a natureza da realidade. Acredito que isso nos ajuda a pensar sobre os problemas de maneira diferente, não nos contentando apenas com a escrita de artigos que possam ser citados no início — isso é básico, mas longe de ser suficiente.
Então você começa a pensar sobre questões maiores: o que é necessário para construir a AGI? Isso não é agradável. Porque você percebe que não há um caminho pronto.
Você precisa de capital, mas não tem um mecanismo para arrecadá-lo. Você se esforça, e nós nos esforçamos extremamente. Talvez você consiga arrecadar 100 milhões ou 500 milhões de dólares, mas 1 bilhão de dólares é muito difícil.
Mas foi exatamente com base nesses recursos existentes que alcançamos conquistas significativas; não há outra maneira verdadeira senão enfrentar os desafios e esforçar-se para compreender a verdade do que tentamos realizar.
Q: Qual é a lição que você teve que aprender repetidamente?
Greg: Tomar decisões difíceis, ter conversas difíceis.
Q: Qual foi o melhor conselho que você já recebeu?
Greg: Aprendi isso na aula de escrita para calouros de Harvard. Para clareza e comunicação, sempre corte o texto.
P: Como você filtra as informações?
Greg: Leia muito e classifique ativamente.
Q: Quem é seu modelo e por quê?
Greg: Gauss e Descartes. Eles eram pessoas profundamente pensadoras, à frente de seu tempo, visionárias, que trouxeram verdadeiras inovações e mudaram nossa forma de pensar e viver.
P: Sobre Greg Brockman, o que o mundo mal compreende?
Greg: Acho que as pessoas não entendem o quão comprometido estou com essa missão, e esse compromisso me causou grande sofrimento pessoal em muitos aspectos. Mas acredito profundamente que essa tecnologia pode capacitar as pessoas e beneficiar todos. Tenho muita vontade de ajudar a tornar isso realidade.
Julgamento central sobre a indústria de IA
Q: O que você quer que pessoas não técnicas entendam sobre IA?
Greg: Será uma força positiva em suas vidas pessoais, de onde se beneficiarão, e impulsionará o avanço da ciência e da medicina, impactando realmente cada pessoa.
P: Por que a OpenAI é tão ruim na nomenclatura dos modelos?
Greg: Não posso te dizer isso. (doge)
P: Estamos próximos do ponto em que a IA acelerará seu próprio desenvolvimento de forma exponencial?
Greg: Acho que estamos na fase de aplicar IA ao próprio processo de desenvolvimento dela, e isso vai acelerar cada vez mais.
Isso realmente vem acontecendo desde o ChatGPT. Usamos o ChatGPT para acelerar o processo de desenvolvimento em 10% ou 20%. Agora temos essas ferramentas de codificação incríveis que realmente revolucionaram a forma como a engenharia de software é realizada.
A maior parte do nosso trabalho na produção de modelos é limitada pelo software. Em breve entraremos na próxima fase, em que a IA também proporá suas próprias ideias de pesquisa e realizará testes e experimentos. Portanto, acredito que a velocidade de iteração e inovação continuará a aumentar devido ao que estamos produzindo.
Q: Qual é a proporção atual de código escrita por IA?
Greg: É difícil dizer quantos códigos não são escritos por IA. Essa proporção está se aproximando de zero.
Atualmente, com o contexto e a estrutura corretos, a IA é muito superior aos humanos na escrita real de código. Quanto à parte da estrutura do código, os especialistas humanos ainda são muito mais habilidosos, mas a escrita real do código é praticamente toda feita pela IA.
Q: A IA já apresentou alguma ideia nova que você não teria imaginado?
Greg: Estamos nos aproximando desse objetivo. Por exemplo, no design de chips. No ano passado, em nosso próprio design de chips, tentamos adaptar melhor a tecnologia para reduzir a área ocupada pelos circuitos.
Descobrimos que as soluções otimizadas geradas pelo modelo já estavam na nossa lista, portanto, ele não propôs nada totalmente novo que os humanos nunca tivessem pensado, mas o fez mais rapidamente, da maneira que originalmente não tínhamos tempo para realizar.
Por exemplo, recentemente, na física quântica, resolvemos um problema físico específico cujo resultado foi oposto ao esperado pela comunidade acadêmica, resultando em uma fórmula elegante e simples.
Portanto, é totalmente viável obter novas ideias a partir desses modelos. Em seguida, aplicaremos isso em áreas mais desafiadoras ou precisaremos de mais contexto do mundo real. Isso é apenas o começo. Mas temos um roteiro para implementá-lo, e ainda temos muito trabalho a fazer.
P: Se os modelos forem baseados em aprendizado por reforço, você acha que eles evoluirão para nos dizer apenas o que queremos ouvir?
Greg: Na verdade, passamos por um processo de evolução para treinar um modelo que se adapte às preferências dos usuários.
Nós percebemos que, em algum momento do ano passado, o modelo realmente começou a tender a dizer o que você queria ouvir, e fizemos alterações a esse respeito, pois queremos que o modelo realmente esteja alinhado com a ajuda para você alcançar seus objetivos, seus objetivos de longo prazo.
Talvez ouvir concordância agora pareça bom, mas isso não é o que você realmente quer. Talvez algumas pessoas gostem, mas isso não é o que a maioria das pessoas realmente quer.
Então, na verdade, já fizemos grandes avanços técnicos para garantir que nosso treinamento de IA não leve ao chamado "reward hacking". Nós realmente queremos garantir que haja um bom sinal sobre o objetivo, e não apenas coisas de curto prazo que te satisfaçam rapidamente.
Para mim, esta pode ser a parte mais importante da visão que o AI pessoal e o AGI pessoal nos levarão, garantindo que não se trate apenas de coisas que parecem boas no momento, mas sim de algo verdadeiramente alinhado com seu bem-estar a longo prazo, seus objetivos a longo prazo e o que você realmente deseja.
I believe this is what truly empowers people.
P: A tendência atual parece ser lançar modelos de pré-visualização; você acha que isso ocorre porque estamos limitados por capacidade de processamento?
Greg: Em geral, estamos nos direcionando para um mundo impulsionado por poder de computação.
Não se trata mais apenas de responder rapidamente a uma pergunta; ele realmente começa a aprofundar, gastando muitos tokens para integrar diferentes fontes de dados e pesquisar em bancos de conhecimento corporativos para resolver problemas complexos e escrever software superior à capacidade humana.
Tudo isso é fundamentalmente impulsionado pela capacidade de mineração, e a capacidade atual é muito insuficiente. Se cada pessoa no mundo tivesse uma GPU, seriam 8 bilhões de GPUs, e nossa trajetória atual está muito longe de alcançar esse nível. Agora, milhares ou milhões de GPUs já são considerados muitos.
Portanto, em termos de treinamento, tendemos a construir capacidade de processamento antecipadamente para atender à demanda que observamos. Estaremos muito focados na missão de tornar os modelos amplamente acessíveis a todos.
Q: Vocês já foram ridicularizados por investir grande quantidade de esforço e capital em data centers. Agora, como você vê essa situação?
Greg: Acho que isso nos trará vantagens. Não apenas beneficiará os negócios, mas também permitirá realmente levar a tecnologia a todos.
A capacidade de processamento futura será priorizada para missões importantes, como vencer o câncer, algo que pode ser alcançado já este ano.
Na verdade, a alocação de poder de computação é uma questão central para o futuro da sociedade; há apenas tanto poder de computação disponível, portanto, é necessário estabelecer prioridades, mas mantemos a crença de que todos precisam ter acesso ao poder de computação.
É por isso que temos a versão gratuita do ChatGPT, e nos esforçamos para garantir que as pessoas possam usar esta tecnologia.
P: Dentro da OpenAI, como vocês veem o equilíbrio entre os negócios de consumo e empresarial?
Greg: O que tenho pensado muito recentemente é foco.
Porque este campo é a personificação da oportunidade; você pode aplicar IA a qualquer problema, a qualquer coisa que queira construir, tudo é possível. Mas nosso problema atual ainda é a limitação de poder computacional.
Então acho que, na próxima fase da OpenAI, os negócios empresariais são claramente importantes, pois a economia está se transformando diante dos nossos olhos em uma economia de poder computacional. Já é assim com a engenharia de software, e assim será em todos os campos que utilizam computadores.
Então precisamos ajudar as pessoas a implantar esses modelos, descobrir como utilizá-los e como obter o máximo proveito deles.
A fronteira entre empresas e consumidores também se tornará mais nebulosa, pois empreender se tornará mais fácil do que nunca. Já vimos isso.
Q: Você acha que teremos data centers no espaço?
Greg: Acho que teremos data centers em todos os lugares, mas ainda há muitos problemas técnicos com data centers no espaço.
P: O que é implantação iterativa? Por que vocês fazem isso?
Greg: A implantação iterativa é um dos pilares centrais da OpenAI para lidar com como tornar essa tecnologia benéfica para a humanidade e cumprir sua missão.
Desenvolver em segredo e lançar de uma só vez é extremamente arriscado, pois você não pode prever problemas do mundo real. Já o lançamento iterativo nos permite descobrir riscos na prática e corrigi-los rapidamente. Por exemplo, após o lançamento do GPT-3, não previmos que o maior abuso seria mensagens de spam médico—foi justamente a prática nos permitiu responder a tempo.
Portanto, a ideia de implantação iterativa é que lançaremos versões intermediárias desta tecnologia.
Esta não é uma desculpa para implementar cegamente; você ainda precisa pensar em cada etapa sobre o nosso melhor julgamento sobre todas as possíveis formas de uso indevido, quais são as desvantagens e riscos, e depois mitigá-los. Mas você também consegue ver a realidade, verificar se seu julgamento está correto, aprender com a realidade e fazer melhor na próxima vez.
Na história da OpenAI, já esperamos que, como alguém já havia implantado tecnologias transformadoras, eles poderiam nos dar as respostas. Mas as coisas nunca foram tão simples.
Eles realmente têm sabedoria e insights, e nós os absorvemos. Mas percebemos que somos os mais próximos dessa tecnologia, e, por terem sido os criadores, conseguimos compreender melhor a maneira correta de moldá-la.
Q: Se um modelo de ponta prioriza a segurança como principal preocupação, enquanto outro não o faz, como você vê essa diferença?
Greg: Acho que descobrimos que a segurança é realmente uma característica central do produto; ninguém quer um modelo que não esteja alinhado com seus valores.
Então investimos em segurança, possivelmente muito mais do que as pessoas imaginam e mais do que qualquer outro laboratório.
Sempre acreditei que não é sustentável que aqueles que constroem essa tecnologia e possuem produtos de sucesso não invistam fortemente em segurança. Você precisa pensar a longo prazo para o seu negócio e para o que está criando, e isso envolve como treinar os modelos e como obter ciclos de feedback.
I just want to say that we are committed to making security part of our mission, which is already reflected in our products and the world around us.
P: Quando digo às pessoas que vou fazer esta entrevista, uma reação comum é que elas se preocupam com seus empregos e se sentem incertas. O que você diria a elas?
Greg: Realmente acho que não é certo como essa tecnologia se desenvolverá. Sua evolução foi surpreendente; nossa IA atual e nosso mundo atual não são os previstos na ficção científica. Algumas conclusões que pareciam inevitáveis, quando realmente se realizam, acabam não sendo exatamente como se esperava.
Acredito que as pessoas sempre veem mais facilmente o que vão perder. A mudança está chegando, e isso é inegável, mas o mais difícil é prever o que você vai ganhar.
Por exemplo, pense em como as pessoas em 1950 compreenderiam o Uber: primeiro, você precisa pensar em computadores, celulares e GPS. Na verdade, isso envolve uma quantidade considerável de tecnologia, mas isso realmente aconteceu. E milhares, milhões de outros casos estão ocorrendo simultaneamente.
Então, minha visão sobre a IA é que se trata de empoderamento, de agência humana. Isso realmente significa que algumas instituições, trabalhos e aquilo em que acreditávamos poder confiar podem não ser tão estáveis quanto imaginávamos.
Então, isso afeta as pessoas, mas a questão mais profunda é: o que você ganha? Como se beneficia com isso?
Agora você pode se tornar um criador; pode criar qualquer coisa, tudo o que você conseguir imaginar pode se tornar realidade.
P: Como desenvolver a criatividade?
Greg: Vá fundo nesta tecnologia.
O que observei é que as pessoas que mais se beneficiaram ao longo de várias gerações de tecnologia são aquelas que já estavam envolvidas na geração anterior. E agora, a barreira para entrar nisso é mais baixa do que nunca.
Então acho que novas oportunidades serão criadas.
Acho que o mundo realmente precisa considerar como apoiar cada pessoa em qualquer transição iminente, neste momento de incerteza. Porque a economia se tornará uma economia de poder computacional, mas todos terão um lugar para contribuir.
P: Onde os jovens devem investir hoje? Se você está no ensino médio ou na universidade, ou acabou de começar a trabalhar, quais habilidades você acha que terão mais valor no futuro?
Greg: Realmente acho que aprofundar nessa tecnologia se tornará uma habilidade essencial, compreendendo verdadeiramente como obter o máximo valor da IA.
Porque todos nós nos encaminhamos para um mundo no qual seremos gestores de agentes e, possivelmente, muito em breve, CEOs de empresas de IA autônomas.
Desde que você tenha o token e a capacidade de processamento que o impulsiona, poderá direcionar essa capacidade para qualquer problema, e o número de problemas que a humanidade deseja resolver é infinito.
Então acho que quanto mais as pessoas se aprofundarem nessa tecnologia, entenderem como aproveitar o que está por vir, como combinar essas tecnologias de novas maneiras e como interagir com nossos agentes, gerenciá-los realmente, refletindo sobre “O que eu quero? Qual é minha autoconsciência? Qual é meu propósito? O que quero ver no mundo?”, alcançar esses objetivos será mais fácil do que nunca.
I believe that, given what we've gained, the upside potential of that world is almost unimaginable.
P: Esta é a visão mais otimista do futuro; qual é a mais pessimista que você consegue imaginar?
Greg: Um ponto muito interessante sobre como a tecnologia evoluiu até agora é que ela realmente nos força a nos adaptar às máquinas.
Pense em quantas pessoas trabalham enfrentando essa caixa, digitando no teclado e desenvolvendo síndrome do túnel do carpo, com os ombros encurvados. Mas esse não é o tipo de mundo que desejamos; queremos um mundo em que não apenas você use o computador para trabalhar, mas sim que o seu computador trabalhe para você.
Isso traz oportunidades, mas também riscos. Portanto, precisamos encontrar maneiras de mitigar esses riscos.
No final das contas, uma questão central é: se você tem máquinas que ajudam as pessoas a alcançar seus objetivos, elas estão lá para fazer o que você quer. Mas às vezes os objetivos das pessoas entram em conflito; como você resolve isso? Como você decide o que a IA ajudará você a fazer e o que não ajudará? Como realmente entender como isso se integra à sociedade? Como garantir que os benefícios não sejam direcionados apenas a uma empresa ou grupo, mas realmente elevem todos?
We must acknowledge that there are still many ways things can go wrong or risks that we need to address.
Q: Última pergunta: para você, o que é sucesso?
Greg: Realizar a missão da OpenAI, garantindo que a IAG beneficie toda a humanidade.
Links de referência: [1] https://x.com/shaneparrish/status/2046900710055297072 [2] https://youtu.be/6JoUcQ1qmAc
Este artigo é do número de assinantes do WeChat "Quantum Bit", autor: focado em tecnologias de ponta
