Ontem à noite, a nova estrela da IA Anthropic (a seguir denominada A Sociedade) não lançou um novo modelo do Claude, mas sim apresentou algo que parece particularmente "chato": o Anthropic Institute (Instituto Anthropic, abreviado como TAI).
Em comparação com a Harness Engineering, popular em 2026, os problemas que o TAI busca resolver são mais abrangentes. De acordo com a agenda de pesquisa divulgada pela Anthropic (anthropic-institute-agenda), o TAI concentra-se em quatro áreas principais: difusão econômica, ameaças e resiliência, sistemas de IA em aplicações práticas e pesquisa impulsionada por IA. O TAI também lançou globalmente um “chamado aos heróis” para recrutar pesquisadores que trabalhem juntos na resolução desses problemas.

(Foto cortesia de X@Anthropic oficial)
Ou seja, a empresa A (abreviatura de Anthropic) criou uma organização interna dedicada principalmente a estudar como os seres humanos podem interagir com a IA:
- Como a IA afetará o emprego e a economia?
- Quais novos riscos de segurança trarão?
- Após o uso real de IA por humanos, os comportamentos e julgamentos mudarão?
- Quando a IA começar a ajudar no desenvolvimento de IA mais poderosa, como esse processo de aceleração deve ser compreendido e controlado?
Muitos leitores podem achar que isso é apenas um movimento comum de uma empresa de IA, mas Lei Technology acredita que este pode ser o movimento mais relevante da A Society recentemente. O impacto positivo do TAI na indústria de IA e na humanidade é comparável ao valor fundamental "não ser mau" proposto pelo Google para a indústria da internet. Por isso, a Lei Technology AGI afirma que esta é uma "lançamento" tão significativo quanto uma grande atualização de modelo.
A IA tem um impacto profundo na economia: não é apenas sobre o emprego das pessoas comuns
A principal área de pesquisa do TAI é a Economic Diffusion.
Ao revisar as três primeiras revoluções industriais da história humana, seja a máquina de fiar Jenny, as rugentes máquinas a vapor ou posteriormente a eletricidade e as linhas de montagem, todas substituíram essencialmente trabalho físico barato e repetitivo. No entanto, a quarta revolução industrial impulsionada pela IA é totalmente diferente, pois penetra diretamente na área de trabalho intelectual mais orgulhosa da humanidade.
E o ponto central apontado por TAI é: as ferramentas foram atualizadas, mas a situação dos trabalhadores piorou.
No estudo de caso, TAI mencionou que, se no futuro três pessoas conseguirem realizar o trabalho de 300 pessoas usando modelos de grande porte, como será essa empresa?
Designers podem usar IA para resolver automaticamente as camadas e ativos mais complicados; programadores podem usar IA para Vibe Coding... Supondo que a IA aumente a produtividade em 75%, isso não reduzirá a jornada de trabalho humana de 8 horas (ou até 996) para 2 horas; ao contrário, os humanos podem precisar fazer cinco vezes mais trabalho.
O que o TAI valoriza é a nova lógica de que “com a IA, sua carga de trabalho precisa dobrar ou triplicar”. Para quantificar essa situação, o TAI introduziu um novo termo: o Anthropic Economic Index (Índice Econômico Anthropic). A Sociedade A declarou que não publicará apenas artigos acadêmicos ignorados por poucos, mas pretende revelar esses dados reais, informando claramente aos humanos: em quais setores a IA está silenciosamente substituindo cargos anteriormente ocupados por pessoas? Os recém-chegados serão eliminados desde o início de suas carreiras?

(Foto cortesia: gerada por IA)
Além disso, o TAI também trouxe essa conta para o mundo real. Todos sabemos que os grandes modelos são uma “besta voraz” que nunca se sacia; cada vez que utilizamos a IA para gerar texto, imagens, vídeos ou mesmo fazer uma simples pergunta, consumimos uma grande quantidade de tokens. Os tokens, por sua vez, são baseados em capacidade de processamento, que por sua vez depende de chips, armazenamento e energia elétrica. Se aprofundarmos ainda mais, há também emissões de carbono, capital e outros fatores. Os recursos são sempre limitados; quando a sociedade direciona uma quantidade massiva de recursos para a IA, outros setores certamente serão afetados.
Em 2026, a sensação mais marcante foi: a escassez de memória e armazenamento causada pela IA levou diretamente ao aumento generalizado de produtos eletrônicos de consumo, e até mesmo fabricantes de celulares foram forçados a reduzir sua disposição de lançar novos modelos. Contudo, ao mesmo tempo, todos os fabricantes de celulares esperam usar a IA para reinventar a lógica dos produtos e prolongar o ciclo de vida dos celulares; o smartphone nativo da OpenAI já foi incluído na agenda. Quando todos se beneficiam da IA, mais indústrias são profundamente impactadas por ela — tanto positiva quanto negativamente.
E TAI usa o "índice econômico" para transformar o impacto da IA na economia, de uma percepção abstrata em um modelo de dados: apenas ao esclarecer o problema é possível resolvê-lo.
Crisis final: a humanidade está "terceirizando" seu próprio cérebro
Se perder o emprego é como cortar a carne com uma faca lenta, então a transformação que a IA provoca no pensamento humano é um dano direto.
O primeiro a sofrer será a internet. Não é difícil perceber que a internet atual está se tornando uma "montanha de merda"; antes, era fácil encontrar muitos posts de viagem com dicas sobre como evitar armadilhas, mas agora tudo são conteúdos criados por IA que parecem bem feitos e bem formatados, mas são pura besteira inventada com sério.
Mais grave ainda, a IA reduziu a barreira de entrada para as indústrias cinzas a zero: usar IA para trocar rostos e espalhar calúnias, clonar a voz de familiares para realizar golpes de phishing — os golpistas apenas queimam alguns Tokens e podem destruir a vida de pessoas comuns.
TAI também percebeu uma crise mais profunda: a IA está tornando os humanos cada vez mais "estúpidos" sem que eles percebam.
Anteriormente, usuários chineses viram cogumelos silvestres desconhecidos na natureza, tiraram uma foto e perguntaram à IA: “Isso é comestível?”, e a IA, com toda seriedade, identificou o cogumelo venenoso como um “saboroso cogumelo comestível”; além disso, uma criança segurou uma armadilha para rato e perguntou à IA o que era, e a IA analisou solenemente, dizendo que era um “brinquedo de kart abandonado, quadrado e com estrutura metálica”, resultando na criança, curiosa, tocar no objeto e ter o dedo preso firmemente.
Essas notícias soam como piadas de inferno, mas revelam um fenômeno: a característica mais marcante da IA não é a inteligência, mas a "confiança misteriosa". A IA nunca conseguirá 100% de precisão; o mais recente modelo do Google Gemini alcança cerca de 91% de precisão factual, o que já é considerado alto. No entanto, muitos usuários, durante o uso da IA, acabam inconscientemente abandonando o pensamento crítico e se acostumam a "terceirizar" todas as decisões para uma sequência de código.
Para isso, TAI lançou uma pergunta provocativa: quando uma grande parte da sociedade recorre apenas a dois ou três grandes modelos para obter conselhos, como será a homogeneização assustadora dos padrões de pensamento e dos métodos de resolução de problemas da humanidade? Você acha que está usando ferramentas de IA para aumentar a produtividade e o nível cognitivo, mas na verdade está “terceirizando seu cérebro”. Em outras palavras, se todos começarem a depender da IA, é muito provável que a humanidade perca a capacidade de pensar por si mesma, transformando os cérebros de todos em réplicas idênticas moldadas no mesmo molde.
A IA apresenta uso duplo; como prevenir a explosão inteligente?
TAI também propôs um novo conceito: capacidades de uso duplo (dual-use capabilities). A explicação oficial é: se uma modelo de IA se tornar mais capaz em biologia, ela não só pode ser usada para desenvolver novos medicamentos, mas também para criar armas biológicas extremamente letais; se uma IA for muito habilidosa em escrever código, ela não só é um bom programador, mas também se torna um hacker capaz de invadir facilmente redes internas de países.

(Foto cortesia do site oficial da Anthropic)
Quando esse monstro de "duplo propósito" for amplamente conectado ao cérebro de veículos autônomos, aos braços mecânicos pesados das fábricas e até aos sistemas de segurança e grupos de drones, que desastres ele causará? No celular, a IA pode exibir uma mensagem: "Desculpe, cometi um erro"; mas no mundo real, um erro de identificação de um segundo resulta em um acidente real de segurança no trabalho.
Além disso, grandes modelos podem ser atualizados a cada algumas semanas, enquanto os humanos levam anos para alterar uma lei, aperfeiçoar seguros e assim por diante. O intervalo entre esses dois ritmos é o período de “nudez” com a menor defesa. Quando desastres causados por IA ocorrerem, a sociedade atual simplesmente não possui a “resiliência” necessária para suportá-los.
Para resolver esse problema, o TAI criou a Frontier Red Team. A missão deles é simples, mas abstrata: atacar e tentar manipular diariamente os agentes de IA que desenvolveram, a fim de entender o quão destrutivo esse sistema pode ser no mundo real, com o objetivo de estabelecer uma barreira de proteção antes que o sistema social antigo entre em colapso total.
Antes, os programadores humanos dominavam a velocidade da evolução da IA, mas agora modelos avançados conseguem revisar artigos acadêmicos e escrever código por conta própria, podendo, em um futuro próximo, desenvolver novos modelos de grande porte sozinhos. Quando a velocidade com que a IA se auto-replica acelera, a evolução tecnológica logo ultrapassará a capacidade cognitiva humana.

(Foto cortesia: gerada por IA)
Para enfrentar este ponto crítico que pode chegar a qualquer momento, o TAI propôs um novo conceito: realizar cenários de Fire drill para explosão inteligente.
Em resumo, o TAI está preparando um exercício de simulação com executivos dos principais laboratórios e governos de vários países: eles querem testar antecipadamente se a humanidade tem ou não capacidade de frear antes que a “explosão inteligente” realmente ocorra.
Desenvolvendo e governando ao mesmo tempo, a comunidade A freou bruscamente.
Neste momento em que toda a indústria está correndo cegamente, olhar para trás e ver a iniciativa da Anthropic de estabelecer o TAI realmente inspira respeito.
A OpenAI ao lado está sempre nos trending topics por causa de demissões de executivos, conflitos internos ou processos judiciais com Musk. Muitas empresas de IA têm desempenho pobre, mas, ao mesmo tempo, tentam “manipular rankings” e levantar fundos em todos os lugares, atraindo capital social por meio de valorações infladas. O tema que a A社 TAI pretende discutir já é amplamente debatido no setor, mas a maioria das grandes empresas de IA adota a atitude de “não importa, vamos avançar primeiro”. Nesse ambiente extremamente impaciente, a A社 deu uma freada, expôs abertamente esses problemas ocultos e demonstrou uma nova atitude em relação à IA: desenvolver ao mesmo tempo em que regula.
A empresa também não é uma instituição de caridade; não é um impulso de bondade excessiva, mas sim está jogando um jogo comercial muito sábio. Atualmente, os grandes financiadores e governos que detêm poder já ficaram assustados com os diversos fracassos causados pela IA: comprar um modelo e ter um desempenho ligeiramente melhor ou pior não importa tanto — o que realmente temem é que ele repentinamente enlouqueça e cause um grande desastre, quando então não haverá como controlar a situação. A empresa A criou para si mesma uma imagem de “pessoa normal” usando o TAI, tranquilizando os usuários e ganhando a confiança do mundo.

(Foto cortesia: gerada por IA)
No final deste artigo sobre TAI, ele também menciona explicitamente: todas as pesquisas e alertas precoces do TAI serão diretamente integradas a uma entidade central da Anthropic — o Long-Term Benefit Trust (Fundo de Benefício de Longo Prazo). A missão desse LTBT é monitorar rigorosamente as decisões comerciais da empresa, garantindo que cada ação da Anthropic seja voltada para o benefício de longo prazo da humanidade, e não para o lucro de curto prazo nos demonstrativos financeiros.
É exatamente como a famosa frase do Google na época: “Não seja mau”. Por meio do TAI, a A Society está dizendo ao mundo: enquanto os concorrentes competem para ver quem dirige mais rápido, nós não apenas corremos rápido, mas também estamos pesquisando como frear.
Confiar que as grandes empresas de tecnologia se autoregulem é realmente absurdo, mas nesta era em que todos correm a toda velocidade com os olhos vendados e o acelerador soldado, o fato de um dos principais players ter criado voluntariamente um instituto como o TAI, investindo dinheiro real em índices econômicos, simulações de explosão inteligente e pesquisas sobre a degeneração do cérebro humano, já é algo digno de destaque. Por isso, o Lei Tech afirma logo no início que o lançamento do TAI é mais importante do que a A Society lançar diretamente um novo modelo.
Anexo: Agenda oficial do TAI, traduzida pelo Google Gemini
No Anthropic Research Institute (TAI), utilizaremos as informações disponíveis nos laboratórios de ponta para estudar o impacto da inteligência artificial no mundo e compartilharemos nossas descobertas com o público. Aqui, compartilharemos as perguntas que guiam nossa agenda de pesquisa.
Nossa agenda de pesquisa concentra-se principalmente nos quatro seguintes campos:
- Economic expansion
- Ameaças e resiliência
- Sistemas de inteligência artificial em aplicações reais
- Pesquisa e desenvolvimento impulsionados por inteligência artificial
No artigo "Principais Pontos sobre a Segurança da Inteligência Artificial", destacamos que realizar pesquisas eficazes em segurança exige contato próximo com sistemas de inteligência artificial de ponta. O mesmo vale para a realização de pesquisas eficazes sobre os impactos da inteligência artificial na segurança, economia e sociedade.
Na Anthropic, já observamos mudanças fundamentais em áreas como engenharia de software. Estamos presenciando a transformação da estrutura econômica interna da Anthropic, com os sistemas que construímos enfrentando novas ameaças, e os primeiros sinais de inteligência artificial estão acelerando o próprio desenvolvimento da IA. Para maximizar os benefícios dos avanços em inteligência artificial, desejamos compartilhar o máximo possível dessas informações. Estamos pesquisando como essas dinâmicas afetarão o mundo externo e como o público pode ajudar a orientar essas transformações.
Na TAI, estudaremos o impacto da inteligência artificial no mundo real a partir de uma perspectiva de laboratório de ponta e divulgaremos esses resultados para ajudar organizações externas, governos e o público a tomar decisões mais informadas sobre o desenvolvimento da inteligência artificial.
Vamos compartilhar pesquisas, dados e ferramentas para facilitar o trabalho de pesquisadores individuais e instituições nesses tópicos. Especificamente, compartilharemos:
- Obteremos informações mais detalhadas com maior frequência a partir de índices econômicos humanos para compreender o impacto e a aplicação da inteligência artificial no mercado de trabalho. Nos esforçaremos para ser sinais de alerta precoce de mudanças e disruptivas significativas.
- Investigar quais áreas sociais mais precisam de investimento para aumentar sua resiliência diante dos novos riscos de segurança trazidos pela inteligência artificial.
- Apresente com mais detalhes como a Anthropic está utilizando novas ferramentas de IA para acelerar seu progresso e o significado potencial da autoaprimoração recursiva dos sistemas de IA.
TAI influenciará as decisões da Anthropic. Isso pode se manifestar como a empresa compartilhando com o exterior alguns dados que originalmente não compartilharia (por exemplo, índices econômicos) ou lançando tecnologias de maneira diferente (por exemplo, análises de ameaças cibernéticas que fornecem suporte de dados para projetos como o "Wings of Glass").
Esperamos que o trabalho de pesquisa conduzido pelo instituto TAI se torne cada vez mais uma referência importante para o Long-Term Benefit Trust (LTBT) da Anthropic. A missão do LTBT é garantir que a Anthropic continue a otimizar suas ações para beneficiar os interesses de longo prazo da humanidade. Desenvolvemos este plano de pesquisa em colaboração com o LTBT e com funcionários de diversos departamentos da Anthropic.
Esta é uma pauta dinâmica, não fixa. Aperfeiçoaremos continuamente estas questões à medida que novas evidências forem surgindo, e é esperado que novas questões, não abordadas hoje, surjam. Bem-vindos são os comentários sobre esta pauta, que serão incorporados conforme as informações obtidas durante as discussões.
Se você tem interesse em nos ajudar a responder essas perguntas, convidamos você a se candidatar para se tornar pesquisador da Anthropic. O programa de pesquisador dura quatro meses, é orientado por membros da equipe TAI, e você terá a oportunidade de pesquisar um ou mais problemas relacionados. Você pode saber mais e se candidatar à próxima edição aqui.
Nossa agenda de pesquisa:
Data da última atualização: 7 de maio de 2026
Economic expansion
É essencial compreender como a implementação de sistemas de inteligência artificial cada vez mais poderosos está transformando a economia. Também precisamos desenvolver os dados econômicos e a capacidade de previsão necessários para escolher formas de implementação de inteligência artificial que beneficiem o público.
Para responder às questões levantadas neste pilar da pesquisa, aprimoraremos os dados do Índice Econômico Humano. Também exploraremos outras abordagens para aperfeiçoar nosso modelo sobre como a inteligência artificial avançada afeta a sociedade, seja por meio do desemprego, do crescimento econômico sem precedentes ou outros aspectos.
Aplicação e difusão da inteligência artificial
- Quem está adotando inteligência artificial? O desenvolvimento de IA está concentrado em poucas empresas de poucos países, mas sua implementação é global. O que determina se um país, região ou cidade pode acessar a inteligência artificial? Se puderem acessá-la, como extraem valor econômico dela? Quais políticas e modelos de negócios podem efetivamente mudar essa realidade? Como os modelos de pesos livres ou pesos abertos promovem essa dinâmica?
- Aplicações de inteligência artificial a nível empresarial: por que as empresas adotam inteligência artificial? Quais são as consequências? Como a inteligência artificial altera a escala na qual empresas ou equipes podem atingir eficiência máxima? Qual é o grau de concentração da aplicação de inteligência artificial entre empresas? Como as mudanças na concentração da aplicação de inteligência artificial se traduzem em margens de lucro e participação do trabalho? Se uma equipe ou empresa de três pessoas agora puder realizar o que antes exigia 300 pessoas, como a estrutura industrial mudará? Ou, se as empresas puderem concentrar conhecimento com mais facilidade e essa prática gerar economias de escala, veremos empresas maiores e mais expansivas, com maior motivação para monitorar sistematicamente os funcionários?
- A inteligência artificial é uma tecnologia geral? A inteligência artificial segue o padrão das "tecnologias gerais" anteriores, ou seja, se difunde mais rapidamente em aplicações comerciais lucrativas e mais lentamente em áreas onde os retornos sociais superam os retornos privados? Existem políticas ou decisões que possam alterar essa tendência?
Productivity and economic growth
- Crescimento da produtividade: Como a inteligência artificial afetará a velocidade da inovação e o crescimento da produtividade em toda a economia?
- Compartilhar benefícios: quais mecanismos de alocação inicial ou realocação podem efetivamente disseminar mais amplamente os benefícios trazidos pelo desenvolvimento e implantação da inteligência artificial?
- Custo de negociação de mercado: Como a inteligência artificial afeta os sistemas de negociação e os custos de negociação no mercado? Quando é vantajoso permitir que agentes representem você na negociação para aumentar a eficiência do mercado e resultados justos? Quando não é?
Ampla influência no mercado de trabalho
- Inteligência artificial e emprego: Como a inteligência artificial transformará o emprego em diversos setores da economia? À medida que a automação por inteligência artificial substituir etapas econômicas existentes, quais novas tarefas e cargos podem surgir? Como essas mudanças variarão entre diferentes regiões e países? Nossa “Pesquisa do Índice da Economia Humana” fornecerá mensalmente informações sobre como as pessoas veem o impacto da inteligência artificial em seus trabalhos e suas expectativas para o futuro. Também atualizaremos o índice econômico para compartilhar dados mais frequentes e detalhados.
- A velocidade de adoção da inteligência artificial pode ser ajustada? Os bancos centrais dos países utilizam instrumentos como taxas de juros e orientações prospectivas para conter a inflação. As empresas de inteligência artificial (em nível setorial, em cooperação com governos) poderiam também adotar instrumentos semelhantes para controlar, setor por setor, a velocidade de adoção da inteligência artificial? Isso traria benefícios públicos significativos?
O futuro do trabalho e do local de trabalho
- A perspectiva dos trabalhadores sobre o trabalho: Como os trabalhadores de diversos setores veem as mudanças profissionais? Quanto impacto eles têm sobre essas mudanças? A força dos “trabalhadores” pode ser preservada ou transformada?
- Sistema de formação de profissionais qualificados: Muitas indústrias dependem de cargos iniciantes (por exemplo, assistentes jurídicos, analistas júnior e desenvolvedores assistentes) para formar futuros profissionais sênior. Se a inteligência artificial substituir os trabalhos que anteriormente permitiam acumular conhecimento especializado, como as pessoas inicialmente se tornarão especialistas? O que isso significa para o estoque de talentos sênior a longo prazo em um determinado campo?
- Aprendizado para o futuro: o que as pessoas devem aprender hoje para se prepararem para o futuro? Quais serão as profissões do futuro? Como a inteligência artificial alterará a forma de aprender e desenvolver habilidades profissionais?
- Papéis com remuneração: Se a inteligência artificial reduzir drasticamente o papel central do trabalho remunerado na vida humana, em quais condições as pessoas poderão realocar seu tempo e energia para outras fontes significativas? O que podemos aprender com grupos históricos ou contemporâneos que enfrentam escassez ou irrelevância do trabalho? Como a sociedade deve responder a essa transformação?
Ameaças e resiliência
Sistemas de inteligência artificial frequentemente conseguem melhorar simultaneamente várias habilidades, incluindo habilidades de uso duplo. Por exemplo, sistemas de IA com habilidades biológicas aprimoradas também têm maior facilidade para criar armas biológicas. Sistemas de IA com forte capacidade de programação de computadores também têm maior facilidade para invadir sistemas computacionais. Se conseguirmos compreender melhor as ameaças que os sistemas de IA podem agravar, a sociedade poderá responder mais facilmente a essa mudança no cenário de ameaças.
Fazemos estas perguntas com o objetivo de ajudar a estabelecer parcerias para fortalecer a capacidade do mundo de responder à inteligência artificial transformacional e criar sistemas de alerta precoce para novas ameaças que possam surgir. Muitas dessas perguntas orientarão nossa agenda de pesquisa de red teaming de ponta.
Avaliar riscos e capacidade de uso duplo:
- Tecnologia de uso duplo: A inteligência artificial poderosa é intrinsicamente de uso duplo: pode ser uma ferramenta para melhorar a saúde e a educação, mas também pode ser usada para vigilância e repressão. Podemos construir ferramentas de observabilidade para entender se isso está acontecendo e como?
- Como precificar riscos de forma adequada: quais métodos eficazes e orientados pelo mercado podem aumentar a resiliência da sociedade frente às ameaças esperadas dos sistemas de inteligência artificial? É possível desenvolver novos métodos de precificação de risco, ou ferramentas tecnológicas e organizações humanas, para aumentar a resiliência antes da chegada de ameaças previsíveis, como o aumento da capacidade de ataques cibernéticos por inteligência artificial?
- Equilíbrio entre ataque e defesa: A capacidade impulsionada pela inteligência artificial beneficiará fundamentalmente os atacantes em áreas como o espaço cibernético e a segurança biológica? Quando a inteligência artificial é aplicada a campos mais tradicionais, como a crescente integração com sistemas de comando e controle, ela também beneficia os atacantes? De forma mais ampla, como a inteligência artificial alterará a natureza dos conflitos humanos?
Implementar medidas de mitigação de risco:
- Plano de resposta a crises: Durante a Guerra Fria, o presidente dos Estados Unidos tinha uma linha direta para o Kremlin para uso em crises nucleares. Então, se um sistema de inteligência artificial causar uma crise, que infraestrutura geopolítica será necessária? Essa infraestrutura pode não ser entre Estados, mas sim entre empresas ou entre empresas.
- Mecanismos de defesa mais rápidos: a capacidade da inteligência artificial pode avançar significativamente em meses, enquanto a resposta regulatória, de seguro e de infraestrutura leva anos. Como podemos preencher essa lacuna? Mecanismos de defesa, como patches automáticos, detecção de ameaças por IA ou capacidades de resposta pré-deployadas, conseguem acompanhar a velocidade e a escala dos ataques de IA? Ou essa assimetria é estrutural? E como podemos implantar esses mecanismos de defesa da maneira mais eficaz possível?
Capacidade de inteligência para monitoramento
- O impacto da inteligência artificial na vigilância: como a inteligência artificial alterará o funcionamento da vigilância? Ela reduzirá os custos de vigilância, aumentará a eficiência da vigilância ou ambos?
Sistemas de inteligência artificial em aplicações reais
A interação entre seres humanos, organizações e sistemas de inteligência artificial se tornará uma fonte importante de transformação social. Compreender como os sistemas de inteligência artificial podem alterar as pessoas e instituições que interagem com eles é um dos principais campos de pesquisa da nossa equipe de impacto social. Para estudar essas mudanças, estamos aprimorando ferramentas existentes e desenvolvendo novas ferramentas para pesquisa, abrangendo desde software para aumentar a observabilidade da plataforma até ferramentas para realizar pesquisas qualitativas em larga escala.
Impactos da inteligência artificial sobre indivíduos e sociedade:
- Epistemologia coletiva: O que acontece com nossa epistemologia quando uma grande parte da população referencia os mesmos poucos modelos? Conseguimos encontrar maneiras de medir mudanças em larga escala nas crenças, estilos de escrita e métodos de resolução de problemas causadas pelo uso comum da inteligência artificial?
- Pensamento crítico: À medida que os sistemas de inteligência artificial se tornam cada vez mais poderosos e confiáveis, como podemos detectar e evitar a deterioração das habilidades de pensamento crítico humano decorrentes da dependência crescente dos julgamentos da IA?
- Interface técnica: A interface técnica determina como as pessoas interagem com a tecnologia — a televisão torna as pessoas espectadoras passivas, enquanto os computadores facilitam que as pessoas se tornem criadores criativos. Que tipo de interface podemos construir para que os sistemas de inteligência artificial aprimorem e promovam a autonomia humana?
- Gerenciamento de sistemas de colaboração humano-máquina: Como os humanos gerenciam eficazmente equipes compostas por humanos e sistemas de inteligência artificial? Por sua vez, como os sistemas de inteligência artificial gerenciam equipes compostas por humanos, inteligência artificial ou uma combinação dos dois?
Identificar os grandes impactos trazidos pela inteligência artificial:
- Impact on behavior: Just as social media has influenced changes in human behavior, artificial intelligence may also shape human behavior. What monitoring or measurement methods can help researchers understand these dynamic changes?
- Fomentar a pesquisa: Existem mecanismos e ferramentas transparentes que permitem ao público em geral (e não apenas às empresas de ponta em inteligência artificial) pesquisar facilmente aplicações de inteligência artificial no mundo real?
Compreender e gerenciar modelos de inteligência artificial:
- Valores do sistema: O que são os "valores" expressos por um sistema de inteligência artificial? Como esses valores estão relacionados à forma como o sistema foi treinado? Mais especificamente, como podemos medir o impacto da "constituição" da inteligência artificial sobre seu comportamento após a implantação? Ampliaremos a pesquisa anterior sobre essas questões.
- Governança de agentes autônomos: Quais aspectos das leis, sistemas de governança e mecanismos de responsabilidade atuais podem ser aplicados a agentes de inteligência artificial autônomos? Por exemplo, como o direito marítimo lida com o abandono de navios está relacionado à forma como a lei lida com agentes sem supervisão humana. Por outro lado, existem aspectos nas leis atuais que já se aplicam a agentes de inteligência artificial, mas que na verdade não deveriam ser aplicáveis?
- Confiabilidade dos agentes: Quais aspectos dos agentes de inteligência artificial autônomos podem ser ajustados para se alinhar às leis, sistemas de governança e mecanismos de responsabilidade existentes? Por exemplo, podemos garantir que os agentes de inteligência artificial possuam uma identidade única e confiável, mesmo na ausência de controle humano direto?
- Governança de inteligência artificial por inteligência artificial: como podemos utilizar eficazmente a inteligência artificial para governar sistemas de inteligência artificial? Em quais áreas da regulamentação de inteligência artificial os seres humanos possuem vantagem comparativa ou são obrigados, por exigências legais ou normativas, a “participar”?
- Interação de agentes: Quais normas emergem quando agentes de inteligência artificial interagem entre si? Como diferentes agentes expressam preferências distintas, e como essas preferências afetam outros agentes?
Pesquisa e desenvolvimento impulsionados por inteligência artificial
À medida que os sistemas de inteligência artificial tornam-se cada vez mais poderosos, os cientistas estão utilizando-os para realizar um número crescente de pesquisas. Isso significa que um número cada vez maior de pesquisas científicas está sendo conduzido de forma autônoma ou semi-autônoma, com cada vez menos intervenção humana. No campo da pesquisa em inteligência artificial, sistemas cada vez mais poderosos podem ser utilizados para desenvolver suas próprias versões subsequentes. Às vezes, chamamos esse modelo de "pesquisa e desenvolvimento de inteligência artificial impulsionada por inteligência artificial".
O desenvolvimento de IA impulsionado por IA pode ser o “dividendo natural” na criação de sistemas mais inteligentes e poderosos. Assim como o avanço na capacidade de codificação gerou capacidades cibernéticas de uso dual, o avanço na capacidade científica pode gerar capacidades biológicas de uso dual, o progresso no trabalho técnico complexo também pode naturalmente produzir sistemas de IA capazes de desenvolver suas próprias IA.
O desenvolvimento de inteligência artificial impulsionado por inteligência artificial contém grandes riscos potenciais. É essencial que os formuladores de políticas compreendam as tendências na velocidade de desenvolvimento da inteligência artificial e se a pesquisa em inteligência artificial começará a gerar efeitos de juros compostos.
Inteligência artificial usada no desenvolvimento de inteligência artificial
- Governança do desenvolvimento de inteligência artificial: se sistemas de inteligência artificial forem usados para desenvolver e aprimorar a si mesmos de forma autônoma, como os seres humanos poderão compreender e controlar efetivamente esses sistemas? No final, o que governará esses sistemas?
- Exercício de emergência de explosão de inteligência: Como realizamos um exercício de emergência de explosão de inteligência? Como conduzir um exercício de mesa para realmente testar a capacidade de decisão da liderança do laboratório, do conselho e do governo?
- Telemetria do desenvolvimento de IA: Como medimos a velocidade geral do desenvolvimento de IA? Quais tecnologias de telemetria e suporte subjacente são necessárias para coletar essas informações? Como os indicadores relacionados ao desenvolvimento de IA podem servir como sinais de alerta precoce para autoaprimoramento recursivo?
- Controlar o desenvolvimento acelerado da inteligência artificial: se uma explosão de inteligência estiver iminente, quais pontos de intervenção poderiam retardar ou alterar essa velocidade? Supondo que os humanos possam intervir, quais entidades deveriam exercer essa capacidade — governos? Empresas?
Aplicação da inteligência artificial em pesquisa e desenvolvimento — ou seja, pesquisa em outros campos impulsionada por inteligência artificial:
- Árvore tecnológica: A inteligência artificial acelera o desenvolvimento de certas áreas científicas muito mais do que outras, dependendo da disponibilidade de dados, dos indicadores de avaliação e da quantidade de conhecimento que é tácito ou restrito por instituições. Quão desigual é esse gradiente de desenvolvimento? Que problemas humanos serão priorizados como resultado das mudanças trazidas pelo progresso científico?
- Fronteira acidentada: a capacidade dos modelos é mais forte em alguns domínios do que em outros. Domínios com grandes externalidades positivas — como pesquisa e desenvolvimento de medicamentos e ciência dos materiais — recebem investimentos muito inferiores ao nível que seu valor mereceria. O mercado orienta o aprimoramento dos modelos com base nos retornos privados, mas podemos melhorar o desempenho dos modelos para lidar com externalidades sociais?
Este artigo é do canal oficial do WeChat "Value Research" (ID: jiazhiyanjiusuo), autor: Dingxi
