Actualizado el 09/10/2025

icon Facebook icon Twiiter icon RSS icon EMAIL
  1. Portada
  2. >
  3. Noticias
  4. >
  5. Hallan la manera en que la IA puede acelerar la creación de exploits

Hallan la manera en que la IA puede acelerar la creación de exploits

Escrito por Guillem Alsina el 24/09/2025 a las 23:54:25
670

La automatización de la investigación ofensiva mediante inteligencia artificial ha dado un paso adelante más gracias a un sistema capaz de producir más de una docena de exploits para vulnerabilidades conocidas, lo que permite reducir el tiempo de desarrollo a menos de quince minutos, según el trabajo de dos investigadores israelíes del cual se hace eco la publicación online Dark Reading.


El impacto potencial de este hallazgo para los equipos de seguridad corporativa es directo, al acortar los plazos entre la divulgación de un fallo mediante el correspondiente boletín, y la disponibilidad del código para explotarlo. En este sentido, si unos investigadores white hat pueden llegar a esta conclusión y desarrollar las herramientas necesarias, no hace falta decir que investigadores black hat pueden haber llegado a la misma conclusión e, incluso, antes.


El trabajo llevado a cabo por estos dos investigadores combina indicaciones a un modelo de lenguaje, avisos de vulnerabilidades (CVE) y parches publicados en repositorios de código abierto para generar pruebas de concepto. La cadena de análisis se apoya en el modelo Claude Sonnet 4.0 de Anthropic para interpretar los avisos y los cambios en el código, crear una aplicación vulnerable y el exploit correspondiente, y verificar el resultado frente a versiones afectadas y corregidas del software objetivo.


Cabe decir que Claude es considerado uno de los mejores modelos de lenguaje para la generación de código fuente, incluso por delante de los modelos de OpenAI en este aspecto concreto, pese a que todavía no tengo referencias a si con el GPT-5, la compañía de Sam Altman se ha superado a sí misma batiendo a Antrophic de paso. No obstante, en los ensayos también se probaron otros modelos de lenguaje, incluida la versión abierta recientemente publicada de ChatGPT.


Según explican en Dark Reading, este avance se enmarca en una tendencia más amplia, puesto que ya existen trabajos previos que exploran el uso de LLMs para automatizar tareas relacionadas con vulnerabilidades: NVIDIA desarrolló Agent Morpheus para detectar problemas y crear boletines para su corrección, y Google utiliza Big Sleep para localizar fallos en proyectos abiertos y sugerir arreglos. Paralelamente, han surgido herramientas que ayudan a sortear controles de seguridad mediante código diseñado para evadir comprobaciones y antivirus.


Bautizado como Auto Exploit, este sistema creado en pocas semanas consiguió elaborar exploits para catorce vulnerabilidades en paquetes de software de código abierto, completando el proceso, para algunos casos, en solamente quince minutos. Pese a que requiere de ajustes manuales, los autores sostienen que demuestra la capacidad de los LLM para acelerar de forma notable el desarrollo de este tipo de código.


El coste declarado del estudio fue de unos pocos cientos de dólares y el precio estimado por exploit se sitúa alrededor de un dólar, lo que, a juicio de sus autores, facilitaría escalar el método a centenares o miles de vulnerabilidades sin un coste apreciable, especialmente si los ciberdelincuentes multiplican luego la inversión por varios factores. La reducción de las barreras económicas y de tiempo podría incrementar la frecuencia de los denominados N-day exploits, y convertir el grado de exposición de un software en Internet en un indicador más relevante del riesgo que la propia dificultad técnica de la explotación.


Cómo saltarse las barreras de seguridad de los modelos de lenguaje


Las salvaguardas que incorporan los modelos de lenguaje han mostrado una eficacia limitada en este contexto, en parte porque la intencionalidad condiciona muchos usos de la ciberseguridad; por ejemplo el pasado 27 de agosto, Anthropic informó de que su servicio Claude Code ya se había utilizado para automatizar una campaña de extorsión digital, e investigadores y atacantes han conseguido en repetidas ocasiones eludir las restricciones en ChatGPT y Gemini.


En el mismo trabajo que llevó a la creación de Auto Exploit, los bloqueos iniciales fueron disminuyendo al reformular las tareas como análisis o construcción de ejemplos funcionales, lo que permitió avanzar con rapidez en la generación y validación de pruebas de concepto.


Si en 2024 la mediana del tiempo necesario para desarrollar un exploit utilizable para aprovechar un agujero de seguridad fue de 192 días, este experimento prueba que podría acortarse hasta minutos, lo cual añade presión a los equipos de ciberdefensa al acortar notablemente su tiempo de respuesta para poder evitar una intrusión que aprovecha una vulnerabilidad recientemente descubierta, y que tal vez ni siquiera han tenido tiempo de parchear.


Durante el mismo 2024 se registraron cerca de 40.000 vulnerabilidades, de las que 768 —menos del 0,2%— fueron explotadas con éxito, un porcentaje que podría crecer notablemente en el futuro.


No obstante, hay una luz de esperanza al final de un túnel, ya que la misma IA que permite crear código de explotación rápidamente, también puede facilitar la creación del parche a la misma velocidad. Y si el boletín con la información sobre el fallo llega antes a estos modelos de lenguaje, cuando los “malos” intenten aprovecharse del problema, este tal vez ya estará corregido.


Por el momento, y vistas las circunstancias, los dos investigadores que han realizado el descubrimiento recomiendan que los equipos de defensa se centren en la exposición y accesibilidad del software para un atacante, un enfoque conocido como análisis de alcanzabilidad, de manera que se releguen los fallos no expuestos o con menor superficie accesible.