OpenAI mantiene conversaciones activas con la Comisión Europea para otorgar acceso a su modelo de IA más avanzado enfocado en ciberseguridad, capaz de identificar vulnerabilidades de software. Esta medida posiciona al creador de ChatGPT como el primer laboratorio de IA importante en abrir sus capacidades cibernéticas a los reguladores de la UE, quienes han estado luchando durante semanas por evaluar los riesgos de seguridad planteados por los sistemas de IA de vanguardia.
El momento es preciso. Anthropic, el principal rival de OpenAI en la carrera de inteligencia artificial consciente de la seguridad, aún no ha autorizado a la UE a acceder a su propio modelo de ciberseguridad, Mythos.
Lo que realmente hace el modelo
El modelo de ciberseguridad de OpenAI, denominado GPT-5.5-Cyber, está específicamente diseñado para identificar fallas de software y simular intrusiones.
Al 1 de mayo, GPT-5.5 completó un hack completo de una red corporativa simulada, convirtiéndose en el segundo sistema de IA en lograr este logro. El primero fue Mythos de Anthropic. Ahora, ambos modelos parecen estar aproximadamente empatados en su capacidad para infiltrarse en entornos empresariales simulados.
Bajo el Acta de IA, los reguladores europeos deben evaluar los riesgos de ciberseguridad que introducen los modelos de IA avanzados. Al otorgar acceso directo, OpenAI está permitiendo efectivamente que la Comisión pruebe su herramienta de ciberseguridad más potente.
Por qué el cripto debería estar prestando atención
Las pérdidas financieras por ataques a criptomonedas superaron los $1,5 mil millones en 2025. Si los modelos de IA pueden simular ataques a redes corporativas, también pueden dirigirse a contratos inteligentes, protocolos de puente y plataformas DeFi.
Los últimos meses ya han visto informes de estafas que explotan agentes de IA para robar criptomonedas. El panorama de amenazas está evolucionando en tiempo real, con atacantes que utilizan herramientas de IA para automatizar phishing, ingeniería social y descubrimiento de vulnerabilidades.
Los tokens relacionados con la IA experimentaron un aumento del 5% en su precio tras el anuncio de estos avances en IA de ciberseguridad.
La partida de ajedrez regulatoria
La aproximación de OpenAI a la UE es tan estratégica como segura. La Ley de IA representa el marco regulatorio más completo para la inteligencia artificial en cualquier parte del mundo. Al ofrecer voluntariamente acceso a su modelo cibernético más potente, OpenAI está haciendo una apuesta calculada: la empresa demuestra transparencia y genera buena voluntad con los reguladores, al tiempo que gana influencia sobre cómo la UE clasificará y regulará finalmente los sistemas de IA con capacidades cibernéticas ofensivas.
Para Anthropic, si la UE termina redactando sus directrices de inteligencia artificial para la ciberseguridad basándose principalmente en su experiencia con el modelo de OpenAI, Anthropic corre el riesgo de ser evaluada según un marco en el que no tuvo participación.
Los $1,500 millones perdidos por ataques a criptomonedas en 2025 son la línea de base. El sector DeFi, en particular, debe vigilar de cerca, ya que proyectos como Fetch.ai ya han comenzado a integrar tecnologías de IA para auditorías de seguridad automáticas.

