OpenAI otorga acceso a la UE al modelo avanzado de IA de ciberseguridad GPT-5.5-Cyber

iconCryptoBriefing
Compartir
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconResumen

expand icon
OpenAI está ofreciendo a los reguladores de la UE acceso a GPT-5.5-Cyber, un desarrollo de IA + noticias de cripto que podría redefinir cómo se evalúan los modelos de vanguardia. Esta IA centrada en ciberseguridad puede detectar fallos en software y simular intrusiones, incluyendo escenarios de hackeos cripto. Recientemente realizó una simulación completa de brecha de red, igualando a Mythos de Anthropic. La Ley de IA utilizará este modelo para evaluar riesgos, con DeFi y protocolos cripto en el punto de mira. Las noticias de IA + cripto provocaron un aumento del 5% en tokens relacionados con IA.

OpenAI mantiene conversaciones activas con la Comisión Europea para otorgar acceso a su modelo de IA más avanzado enfocado en ciberseguridad, capaz de identificar vulnerabilidades de software. Esta medida posiciona al creador de ChatGPT como el primer laboratorio de IA importante en abrir sus capacidades cibernéticas a los reguladores de la UE, quienes han estado luchando durante semanas por evaluar los riesgos de seguridad planteados por los sistemas de IA de vanguardia.

El momento es preciso. Anthropic, el principal rival de OpenAI en la carrera de inteligencia artificial consciente de la seguridad, aún no ha autorizado a la UE a acceder a su propio modelo de ciberseguridad, Mythos.

Lo que realmente hace el modelo

El modelo de ciberseguridad de OpenAI, denominado GPT-5.5-Cyber, está específicamente diseñado para identificar fallas de software y simular intrusiones.

Al 1 de mayo, GPT-5.5 completó un hack completo de una red corporativa simulada, convirtiéndose en el segundo sistema de IA en lograr este logro. El primero fue Mythos de Anthropic. Ahora, ambos modelos parecen estar aproximadamente empatados en su capacidad para infiltrarse en entornos empresariales simulados.

Bajo el Acta de IA, los reguladores europeos deben evaluar los riesgos de ciberseguridad que introducen los modelos de IA avanzados. Al otorgar acceso directo, OpenAI está permitiendo efectivamente que la Comisión pruebe su herramienta de ciberseguridad más potente.

Por qué el cripto debería estar prestando atención

Las pérdidas financieras por ataques a criptomonedas superaron los $1,5 mil millones en 2025. Si los modelos de IA pueden simular ataques a redes corporativas, también pueden dirigirse a contratos inteligentes, protocolos de puente y plataformas DeFi.

Los últimos meses ya han visto informes de estafas que explotan agentes de IA para robar criptomonedas. El panorama de amenazas está evolucionando en tiempo real, con atacantes que utilizan herramientas de IA para automatizar phishing, ingeniería social y descubrimiento de vulnerabilidades.

Los tokens relacionados con la IA experimentaron un aumento del 5% en su precio tras el anuncio de estos avances en IA de ciberseguridad.

La partida de ajedrez regulatoria

La aproximación de OpenAI a la UE es tan estratégica como segura. La Ley de IA representa el marco regulatorio más completo para la inteligencia artificial en cualquier parte del mundo. Al ofrecer voluntariamente acceso a su modelo cibernético más potente, OpenAI está haciendo una apuesta calculada: la empresa demuestra transparencia y genera buena voluntad con los reguladores, al tiempo que gana influencia sobre cómo la UE clasificará y regulará finalmente los sistemas de IA con capacidades cibernéticas ofensivas.

Para Anthropic, si la UE termina redactando sus directrices de inteligencia artificial para la ciberseguridad basándose principalmente en su experiencia con el modelo de OpenAI, Anthropic corre el riesgo de ser evaluada según un marco en el que no tuvo participación.

Los $1,500 millones perdidos por ataques a criptomonedas en 2025 son la línea de base. El sector DeFi, en particular, debe vigilar de cerca, ya que proyectos como Fetch.ai ya han comenzado a integrar tecnologías de IA para auditorías de seguridad automáticas.

Descargo de responsabilidad: La información contenida en esta página puede proceder de terceros y no refleja necesariamente los puntos de vista u opiniones de KuCoin. Este contenido se proporciona solo con fines informativos generales, sin ninguna representación o garantía de ningún tipo, y tampoco debe interpretarse como asesoramiento financiero o de inversión. KuCoin no es responsable de ningún error u omisión, ni de ningún resultado derivado del uso de esta información. Las inversiones en activos digitales pueden ser arriesgadas. Evalúa con cuidado los riesgos de un producto y tu tolerancia al riesgo en función de tus propias circunstancias financieras. Para más información, consulta nuestras Condiciones de uso y la Declaración de riesgos.