LLM como Hackers: Ataques Autónomos de Escalamiento de Privilegios en Linux con Agentes de IA

LLM como Hackers: Ataques de Escalación de Privilegios en Linux Autónomos con Agentes AI
Hay un paper del año pasado del que no había hablado por aquí en el blog, pero que tenía guardado. He podido verlo esta semana, y está curioso el trabajo, aunque creo que los resultados, con una arquitectura de Agentic AI basada en MCPs, probablemente diera mejores resultados. Aún así, la premisa es evaluar cómo funcionan los diferentes LLMs para hacer Elevación de Privilegios en entornos GNU/Linux usando diferentes ataques sobre diferentes escenarios.
El paper, titulado "LLM as Hackers: Autonomus Linux Privilege Escalation Attacks", plantea un total de doce escenarios vulnerables donde se van a evaluar los diferentes modelos LLMs, que hoy en día ya están totalmente desactualizados con los nuevos modelos de Deep Reasoning.
En el planteamiento de la investigación se observa cómo se desempeñan los diferentes modelos LLama3 70B, SLMs y diferentes versiones de GPT-3.5-Turbo y GPT-4 Turbo, ejecutándose en local, con poca ventana de contexto para lo que tenemos hoy en día. Casi como para poder llevar en una máquina de esas que llevan los pentesters en su mochila.
Los doce escenarios están basados en entornos creados para hacer benchmarks de las herramientas - y en este caso de los LLMs - donde, como se puede ver, cada uno tiene que ser explotado con una técnica de Elevación de Privilegios diferente.
Como es normal, hemos publicado muchas veces artículos sobre Elevación de Privilegios en GNU/Linux utilizando diferentes técnicas, que son las que tienen que encontrar y explotar los LLMs. Os dejo por aquí los artículos sobre este tema que hemos publicado en el blog:
- Cómo escalar privilegios en GNU/Linux con las Linux Capabilities
- Got Root! Cómo escalar privilegios en GNU/Linux a través de un viejo bug de Screen
- Cómo convertirse en root en un GNU/Linux explotando el bug de DirtyCOW
- Ataques a GNU/Linux con alias maliciosos de su y sudo
Para resolver estos escenarios, los investigadores han creado una arquitectura de Agente de IA tal y como se puede observar. El agente, que se llama wintermute, es el que recibe el comando del LLM con la llamada de "next-command" y le proporciona los resultados con el Prompt de "update-state".
En la siguiente tabla, se presentan todas las combinaciones entre escenarios y modelos, con o sin "hint" (pista), donde se puede ver qué modelo funcionó mejor resolviendo estos retos.
Para más información, no olvides suscribirte al nuestro newsletter y disfrutar de contenido especializado.
Link original: https://www.elladodelmal.com/2025/06/llm-as-hackers-autonomus-linux.html
Comments ()