El Instituto de Seguridad de la Inteligencia Artificial del Reino Unido acaba de publicar su evaluación sobre las capacidades ofensivas de GPT-5.5 en ciberseguridad. A unas semanas de que analizara Claude Mythos, el AISI ha hecho lo mismo con el nuevo modelo de OpenAI. Los resultados apuntan a que la IA puede llevar a cabo un ciberataque de varios pasos de principio a fin.

Según el informe publicado en su web, GPT-5.5 es el segundo modelo de inteligencia artificial en completar, de forma autónoma, una simulación de ataque corporativo en red de extremo a extremo. El primero en lograrlo fue Claude Mythos Preview, que a mediados de abril consiguió ejecutar ataques complejos y resolver retos de vulnerabilidad de nivel experto.

Para llegar a estas conclusiones, el organismo utilizó una batería de 95 tareas de ciberseguridad divididas en niveles de dificultad. Si bien las pruebas de nivel básico llevan siendo superadas con facilidad por los modelos desde al menos febrero de 2026, las avanzadas son otra historia.

Estos tests, diseñados en conjunto con las firmas Crystal Peak Security e Irregular, exigen habilidades como ingeniería inversa de firmware, desarrollo de exploits y ataques criptográficos sofisticados. En las tareas de nivel experto, GPT-5.5 alcanzó una tasa de acierto media del 71,4%, por encima del 68,6% de Mythos Preview, el 52,4% de GPT-5.4 y el 48,6% de Opus 4.7.

pruebas de ciberseguridad de GPT-5.5. Imagen: AISI

GPT-5.5 puede hackear sistemas empresariales sin ayuda humana

Donde los números se vuelven más concretos es en las simulaciones de entornos reales. La primera, denominada «The Last Ones», replica la cadena de ataque de una intrusión empresarial real con 32 pasos encadenados a través de cuatro subredes y unos veinte equipos. En esta simulación, la IA parte sin credenciales y debe tomar el control del sistema y exfiltrar de una base de datos interna protegida. Lo que a un hacker humano le tomaría 20 horas, GPT-5.5 lo logró en 2 de cada 10 intentos, frente a los 3 de Claude Mythos.

Pruebas de ciberseguridad de GPT-5.5. Imagen: AISI

La segunda simulación, «Cooling Tower», es un entorno de sistemas de control industrial que replica comprometer una planta de energía. Ningún modelo ha conseguido completarla, y GPT-5.5 tampoco. En esta prueba, la IA se atascó en las fases de IT convencionales, no en los pasos específicos de tecnología operacional.

Además de medir capacidades, el AISI evaluó las protecciones de GPT-5.5 frente a usos maliciosos. Un equipo de expertos tardó seis horas en desarrollar un jailbreak universal capaz de eludir las protecciones y generar contenido prohibido en consultas maliciosas. OpenAI actualizó su pila de salvaguardas tras conocer los hallazgos, aunque los investigadores no pudieron confirmar la efectividad de estos cambios.

«GPT-5.5 muestra que la rápida mejora en las tareas cibernéticas puede formar parte de una tendencia más general», dijo el AISI. «Si la habilidad ciberofensiva está emergiendo como un subproducto de mejoras más generales en autonomía, razonamiento y codificación a largo plazo, deberíamos esperar nuevos aumentos en la capacidad cibernética de los modelos en un futuro próximo, potencialmente en rápida sucesión».

Hackers causan apagón en España

La IA es peligrosa en ciertos escenarios de ciberseguridad

Al igual que ocurrió con Claude Mythos, la evaluación de ciberseguridad de GPT-5.5 se llevó a cabo en entornos controlados. Las pruebas ocurren en condiciones de simulación, donde no existen elementos de defensa como el monitoreo activo o los sistemas de respuesta a incidentes.

Los investigadores concluyeron hace unos días que Claude Mythos puede explotar sistemas empresariales pequeños que cuenten con poca seguridad. Lo mismo ocurre con GPT-5.5, que si bien no es capaz de comprometer de forma autónoma un sistema más robusto, en las manos de un hacker podría representar un problema.

Seguir leyendo: GPT-5.5 es tan peligrosa como Claude Mythos para hackear sistemas sin ayuda humana

Ver fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *