A OpenAI está em negociações ativas com a Comissão Europeia para conceder acesso ao seu modelo de IA mais avançado, voltado para cibersegurança, capaz de identificar vulnerabilidades de software. Essa medida posiciona o criador do ChatGPT como o primeiro grande laboratório de IA a abrir suas capacidades cibernéticas para os reguladores da UE, que vêm enfrentando dificuldades há semanas para avaliar os riscos de segurança impostos pelos sistemas de IA de ponta.
O timing é preciso. A Anthropic, principal rivale da OpenAI na corrida de IA consciente da segurança, ainda não autorizou a UE a acessar seu próprio modelo de cibersegurança, Mythos.
O que o modelo realmente faz
O modelo de cibersegurança da OpenAI, denominado GPT-5.5-Cyber, é especificamente projetado para identificar falhas de software e simular invasões.
Em 1º de maio, o GPT-5.5 completou um ataque simulado completo à rede corporativa, tornando-se o segundo sistema de IA a alcançar essa façanha. O primeiro foi o Mythos da Anthropic. Os dois modelos agora parecem estar aproximadamente empatados em sua capacidade de invadir ambientes empresariais simulados.
Sob o Regulamento de IA, os reguladores europeus precisam avaliar os riscos de cibersegurança que os modelos avançados de IA introduzem. Ao conceder acesso direto, a OpenAI está, na prática, permitindo que a Comissão teste seu ferramenta de cibersegurança mais capaz.
Por que a cripto deve prestar atenção
Perdas financeiras provenientes de ataques a criptomoedas superaram US$ 1,5 bilhão em 2025. Se modelos de IA podem simular ataques a redes corporativas, também podem ser direcionados a contratos inteligentes, protocolos de ponte e plataformas DeFi.
Nos últimos meses, já foram relatados golpes que exploram agentes de IA para roubo de criptomoedas. O cenário de ameaças está evoluindo em tempo real, com atacantes utilizando ferramentas de IA para automatizar phishing, engenharia social e descoberta de vulnerabilidades.
Os tokens relacionados a IA registraram uma alta de 5% no preço após o anúncio desses avanços em IA de cibersegurança.
A partida de xadrez regulatória
A abordagem da OpenAI à UE é tão estratégica quanto segura. O AI Act representa o quadro regulatório mais abrangente para inteligência artificial em qualquer parte do mundo. Ao oferecer acesso ao seu modelo cibernético mais avançado, a OpenAI faz uma aposta calculada: a empresa demonstra transparência, constrói boa vontade com os reguladores e ganha influência sobre como a UE classificará e regulará sistemas de IA com capacidades cibernéticas ofensivas.
Para a Anthropic, se a UE acabar por elaborar suas diretrizes de IA em cibersegurança com base principalmente em sua experiência com o modelo da OpenAI, a Anthropic corre o risco de ser avaliada contra um framework do qual não teve participação na formulação.
Os US$ 1,5 bilhão perdidos em ataques cripto em 2025 são a linha de base. O setor DeFi, em particular, deve acompanhar de perto, pois projetos como o Fetch.ai já começaram a integrar tecnologias de IA para auditorias de segurança automáticas.

