Hackers cometen un error y exponen en Google miles de contraseñas robadas, iPhone, iOS 14.8, Pegasus
Hackers cometen un error y exponen en Google miles de contraseñas robadas, iPhone, iOS 14.8, Pegasus

La IA dejó de ser una distracción para convertirse en una herramienta de ataque real para los hackers experimentados. Prueba de ello es que Google confirmó que ha interceptado el primer exploit zero-day creado con inteligencia artificial del que tiene registro. El objetivo de los atacantes era comprometer la autenticación de dos pasos de una herramienta muy utilizada.

Según reporta el blog de seguridad de Google Cloud, investigadores de Google Threat Intelligence Group (GTIG) detectaron la primera vulnerabilidad de día cero desarrollada mediante modelos de lenguaje. El exploit en cuestión era un script en Python diseñado para saltarse el sistema 2FA de una herramienta de administración web de código abierto. Esto les habría permitido acceder a cuentas protegidas, incluso con contraseñas válidas.

De acuerdo con el reporte, los investigadores se dieron cuenta de que se trataba de IA tras descubrir alucinaciones y otras características típicas de un LLM. Entre ellas estaba una puntuación de riesgo CVSS inventada y una estructura demasiado académica que los hizo sospechar. El formato se encontraba excesivamente ordenado, con docstrings educativos, menús de ayuda detallados y una estructura típica del material de entrenamiento con el que se alimenta a los modelos de IA.

Todas estas características no suelen aparecer en el código escrito por humanos con fines delictivos. Google afirma que, aunque el código parece generado por una IA, no existe evidencia de que se haya utilizado Gemini para esta tarea. La tecnológica logró trabajar con el proveedor afectado para frenar la campaña antes de que se ejecutara un evento de explotación masiva que los hackers ya tenían planeado.

Otro detalle que se desprende del reporte es el fallo que la IA ayudó a identificar. El desarrollador programó una suposición de confianza directamente en la lógica del sistema 2FA, la cual pasó desapercibida para las herramientas tradicionales.

Los hackers llevan meses usando la IA para desarrollar nuevos ataques

El informe del GTIG menciona que los atacantes llevan meses usando modelos de lenguaje para tareas que antes requerían mucho tiempo humano. La IA les permite generar jerarquías detalladas de empresas objetivo, identificar qué hardware usa una persona concreta antes de desarrollar un exploit o crear señuelos de phishing específicos para empleados con acceso a datos sensibles.

Gafas analizan el código fuente de un servidor de Microsoft sin contraseña

Además de la generación de exploits, la IA está facilitando una fase de reconocimiento extremadamente detallada sobre empresas para crear ataques más creíbles. Google afirma que grupos de hackers vinculados a China y Corea del Norte están desplegando frameworks agénticos como Hexstrike y Strix. Estos utilizan herramientas de reconocimiento y sistemas multiagente para automatizar fases enteras de un ataque con supervisión humana mínima.

Para lograr su cometido, los atacantes recurren al jailbreaking mediante personas falsas. Los hackers se saltan las barandillas de seguridad a través de una instrucción en la que se le pide a la IA que adopte el rol de un experto de seguridad. Algunos alimentan a los modelos con repositorios enteros de datos sobre vulnerabilidades para afinar la fiabilidad de los payloads antes de lanzarlos contra objetivos reales.

El informe concluye que el uso de la IA en operaciones ofensivas está dejando de ser experimental para convertirse en algo sistemático. Los investigadores consiguieron detener el exploit esta vez, pero el patrón que describe apunta a que casos similares seguirán apareciendo.

Seguir leyendo: Google descubre el primer ciberataque construido con inteligencia artificial

Ver fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *