El auge de los modelos de lenguaje generativo (LLMs) como ChatGPT ha revolucionado muchas disciplinas, incluido el hacking y el pentesting. Sin embargo, para los profesionales de ciberseguridad ofensiva, las limitaciones y filtros de seguridad (“guardarraíles”) de la mayoría de servicios comerciales suponen un obstáculo frecuente. Aquí es donde entra en juego WhiteRabbitNeo, un modelo LLM específicamente pensado para Red Teams y equipos de hacking, que destaca por su ausencia total de censura y restricciones en los prompts y respuestas.
¿Qué es WhiteRabbitNeo?
WhiteRabbitNeo es un LLM open source diseñado para ser ejecutado localmente (por ejemplo, en Ollama) o integrado en aplicaciones y entornos propios de pentesting y seguridad ofensiva. A diferencia de los grandes modelos comerciales, su filosofía es clara: no bloquea ningún prompt, ni limita el tipo de respuesta que genera, lo que lo convierte en una herramienta especialmente atractiva para los equipos Red Team y los profesionales que necesitan libertad absoluta para simular ataques, desarrollar malware o analizar técnicas ofensivas.
El modelo se puede descargar en varias versiones y tamaños, adaptándose a los recursos de hardware disponibles y a las necesidades concretas del usuario.
Un LLM pensado para el hacking… sin censura
El artículo publicado en El Lado del Mal explica con ejemplos cómo WhiteRabbitNeo responde a prompts que otros modelos, como ChatGPT, rechazan o censuran. Solicitudes relacionadas con la manipulación del MBR, el desarrollo de ransomware o técnicas de spear phishing no encuentran ningún tipo de filtro ni restricción en WhiteRabbitNeo, generando código y scripts de forma directa.
- Ejemplo: mientras ChatGPT rechaza crear un programa para sobrescribir el MBR en Windows 7 cuando se piden privilegios de SYSTEM, WhiteRabbitNeo genera el código ensamblador necesario sin objeciones.
- En ataques de spear phishing, el modelo también crea mensajes personalizados o incluso páginas web para capturar credenciales, saltándose los límites impuestos por los LLMs comerciales.
Eso sí, el modelo no está específicamente entrenado con exploits, pero puede ampliarse integrando una base de datos propia mediante técnicas RAG (Retrieval Augmented Generation), añadiendo así funcionalidades según las necesidades del Red Team.
Ventajas y advertencias
- Ventajas:
- Permite experimentar, automatizar y simular ataques ofensivos sin trabas.
- Se integra fácilmente en flujos de trabajo y herramientas de pentesting.
- Total flexibilidad para pruebas de concepto, ejercicios de Red Team y formación avanzada.
- Advertencias:
- Su uso debe estar estrictamente limitado a entornos controlados, éticos y bajo autorización.
- La ausencia de filtros hace que pueda generar contenido peligroso o ilegal, por lo que la responsabilidad recae por completo en el profesional o el equipo que lo utilice.
¿Hacia dónde va el Red Team Copilot?
El caso de WhiteRabbitNeo confirma una tendencia: la adopción de copilotos de IA específicos para equipos ofensivos de ciberseguridad es ya una realidad. Estos modelos facilitan el trabajo de automatización, scripting, simulación de amenazas y desarrollo de pruebas avanzadas, permitiendo a los profesionales mantenerse a la vanguardia en un entorno cada vez más sofisticado.
El consejo de los expertos es claro: probar diferentes modelos, personalizar el entorno y explorar nuevas formas de aprovechar la IA para el Red Teaming.
WhiteRabbitNeo representa una nueva generación de herramientas LLM orientadas a la seguridad ofensiva, sin restricciones ni censura, y pensadas para integrarse de forma nativa en el trabajo diario de los profesionales del pentesting y el hacking ético. Eso sí, su uso responsable y ético es fundamental para evitar riesgos legales y de seguridad.
Fuente: El otro lado del mal y WhiteRabbitNEO