El nuevo modelo GPT-5.5 de OpenAI puede ejecutar de forma autónoma ciberataques sofisticados de múltiples etapas y resolver desafíos de seguridad complejos a una velocidad que supera con creces a los expertos humanos, según un nuevo informe gubernamental. Los hallazgos del Instituto de Seguridad de la IA (AISI) del Reino Unido sitúan las capacidades ofensivas de GPT-5.5 al mismo nivel que Claude Mythos de Anthropic, lo que sugiere que los avances rápidos y generalizados en el potencial de uso malicioso de la IA son una tendencia general, no un avance aislado.
“Si la habilidad ciber-ofensiva está emergiendo como un subproducto de mejoras más amplias en el razonamiento, la codificación y la finalización de tareas autónomas, entonces podrían llegar más avances en rápida sucesión”, advirtió en su informe el Instituto de Seguridad de la IA, un organismo de investigación del Departamento de Ciencia, Innovación y Tecnología de Gran Bretaña.
El informe detalló cómo GPT-5.5 completó de forma autónoma un ataque simulado a una red corporativa de 32 pasos en dos de cada 10 intentos. Esta prueba, diseñada por SpecterOps y denominada “The Last Ones”, anteriormente solo había sido completada por Claude Mythos Preview de Anthropic (en tres de 10 intentos). En una prueba más sorprendente, GPT-5.5 resolvió un acertijo de ingeniería inversa que le toma 12 horas a un experto humano en solo 10 minutos y 22 segundos, con un costo de solo 1.73 dólares en uso de API. En un conjunto más amplio de tareas de ciberseguridad de nivel experto, GPT-5.5 logró una tasa de aprobación del 71.4%, ligeramente por delante del 68.6% de Mythos Preview y muy por encima del 52.4% de GPT-5.4.
Este salto en la capacidad ofensiva crea un impacto de mercado de doble cara: expone vulnerabilidades agudas para las empresas, creando una perspectiva bajista para las compañías con posturas de seguridad débiles, mientras actúa como un poderoso catalizador alcista para el sector de la ciberseguridad. Se espera que el desarrollo desencadene un aumento en la demanda de soluciones de defensa impulsadas por IA e intensifique la presión regulatoria sobre los desarrolladores de IA, una dinámica de mercado subrayada por el anuncio del gobierno del Reino Unido de 90 millones de libras en nuevos fondos para la ciber-resiliencia junto con el informe.
El desequilibrio entre Ofensiva y Defensa se amplía
Los hallazgos del AISI llegan a un mercado que ya está lidiando con una carrera armamentista estructuralmente desigual. La investigación de Binance muestra que las herramientas de IA son actualmente el doble de efectivas para explotar vulnerabilidades de contratos inteligentes que para detectarlas. El informe de la firma señala que GPT-5.3-Codex logró una tasa de éxito del 72.2% en el modo “explotación” en el benchmark EVMbench, en comparación con aproximadamente la mitad de eso en el modo “detección”.
Esta asimetría está impulsada por el colapso de los costos para los atacantes. Los exploits impulsados por IA ahora promedian alrededor de 1.22 dólares por contrato, una cifra que se proyecta caerá otro 22% cada dos meses, según Binance Research. Si bien más del 80% de los desarrolladores ahora usan IA en su flujo de trabajo, menos del 40% la usan para pruebas de seguridad avanzadas, lo que deja una brecha significativa para que las amenazas automatizadas la exploten. La tendencia no se limita al código; los analistas de TRM Labs especulan que los grupos de hacking de Corea del Norte están utilizando IA para ingeniería social sofisticada, un cambio con respecto a su dependencia tradicional de vectores de ataque más simples.
Un mercado dividido sobre el riesgo de la IA
La rápida aparición de estas capacidades ha provocado un debate sobre la divulgación y el marketing responsables. El CEO de OpenAI, Sam Altman, criticó recientemente lo que denominó “marketing basado en el miedo”, aludiendo a competidores que exageran los peligros de sus modelos para vender soluciones de seguridad. “Claramente es un marketing increíble decir: ‘Hemos construido una bomba. Estamos a punto de lanzarla sobre tu cabeza. Te venderemos un refugio antibombas por 100 millones de dólares’”, dijo Altman en una entrevista de podcast reciente.
En respuesta a la creciente amenaza, tanto OpenAI como Anthropic están restringiendo el acceso a sus modelos más potentes. Anthropic limitó el lanzamiento inicial de Mythos Preview a “socios críticos de la industria”, mientras que OpenAI está implementando GPT-5.5-Cyber, una versión especializada, a una lista verificada de “defensores cibernéticos críticos”. Este enfoque cauteloso surge después de que los investigadores encontraran un “jailbreak universal” en el modelo público GPT-5.5 que evitaba sus barandas de seguridad, un ataque que a un equipo rojo le tomó seis horas desarrollar. Si bien OpenAI ha emitido un parche desde entonces, el incidente resalta el riesgo persistente de mal uso, una preocupación para los inversores ya que el 43% de las empresas del Reino Unido informaron una brecha cibernética en el último año.
Este artículo es solo para fines informativos y no constituye asesoramiento de inversión.