El avance de la inteligencia artificial ha traído consigo nuevas vulnerabilidades que los desarrolladores y expertos en ciberseguridad deben abordar. En respuesta a este desafío, OWASP ha publicado el Top 10 de riesgos de seguridad para aplicaciones basadas en modelos de lenguaje de gran tamaño (LLM) en 2025, con el objetivo de identificar y mitigar amenazas específicas en el desarrollo y uso de estos sistemas.
Desde su inicio en 2023, este esfuerzo ha crecido en relevancia a medida que los LLM se integran en sectores clave como atención al cliente, sanidad, banca y seguridad empresarial. El listado de OWASP no solo destaca los riesgos más críticos, sino que también proporciona un marco de referencia para la implementación de medidas de protección.
Principales riesgos de seguridad en aplicaciones basadas en LLM
LLM01:2025 Inyección de mensajes (Prompt Injection)
Este tipo de vulnerabilidad ocurre cuando un atacante manipula los mensajes de entrada para alterar el comportamiento del modelo. Al no ser perceptibles para los humanos, estos ataques pueden llevar a que el LLM genere contenido inapropiado, viole restricciones de seguridad o exponga información sensible.
LLM02:2025 Divulgación de información confidencial
Los modelos de lenguaje pueden almacenar y divulgar información personal o corporativa sin autorización, exponiendo credenciales, registros médicos, datos financieros o información propietaria de empresas. Este riesgo aumenta en modelos cerrados donde el código y los datos de entrenamiento no son auditables.
LLM03:2025 Vulnerabilidades en la cadena de suministro
Cuando un LLM accede a sistemas externos sin restricciones adecuadas, puede comprometer información sensible o ejecutar acciones no autorizadas. La falta de segmentación de los entornos y la ausencia de controles de acceso adecuados son algunos de los factores que agravan este problema.
LLM04:2025 Envenenamiento de datos y modelos
El envenenamiento de datos ocurre cuando actores malintencionados manipulan el preentrenamiento o ajuste de un modelo para introducir puertas traseras, sesgos o vulnerabilidades. Esto puede afectar la seguridad, precisión y ética del modelo, generando respuestas perjudiciales o sesgadas.
LLM05:2025 Manejo inadecuado de salidas
Si las respuestas generadas por un LLM no son validadas o filtradas correctamente antes de su uso, pueden dar lugar a ataques como XSS (Cross-Site Scripting), CSRF (Cross-Site Request Forgery), escalamiento de privilegios o ejecución remota de código en sistemas backend.
LLM06:2025 Agencia excesiva
Muchos LLM están diseñados para invocar funciones externas o interactuar con otros sistemas a través de extensiones o agentes autónomos. La agencia excesiva ocurre cuando un modelo tiene demasiado poder para ejecutar tareas críticas sin supervisión humana, lo que puede dar lugar a acciones dañinas.
LLM07:2025 Fuga de mensajes del sistema
Los mensajes internos que guían el comportamiento del modelo pueden contener información confidencial. Si estos mensajes se exponen a través de fallos en la configuración o ataques de ingeniería inversa, podrían ser utilizados para explotar vulnerabilidades adicionales.
LLM08:2025 Debilidades en vectores y sistemas de incrustación
Las técnicas como Retrieval Augmented Generation (RAG) dependen de vectores e incrustaciones para mejorar la relevancia de las respuestas. Si no se protegen adecuadamente, los atacantes pueden inyectar datos maliciosos o manipular los resultados generados por el LLM.
LLM09:2025 Generación de desinformación
Uno de los desafíos más grandes de los LLM es la producción de información falsa o engañosa que puede parecer veraz. Este problema puede tener implicaciones legales, reputacionales y de seguridad, especialmente en sectores como la salud y el derecho.
LLM10:2025 Consumo ilimitado de recursos
Los LLM requieren un alto consumo de cómputo, lo que puede hacerlos vulnerables a ataques de denegación de servicio (DoS) y sobrecarga de recursos. La falta de limitaciones adecuadas en el acceso y la ejecución de modelos puede derivar en un consumo descontrolado que afecte la disponibilidad del sistema.
Hacia un desarrollo más seguro de modelos de IA
Los riesgos identificados en el OWASP Top 10 para LLM 2025 reflejan la creciente necesidad de abordar la seguridad en la inteligencia artificial de manera proactiva. Para mitigar estos problemas, los desarrolladores y empresas deben adoptar buenas prácticas como:
✅ Implementar mecanismos de validación de entrada y salida para evitar inyecciones de mensajes y respuestas maliciosas.
✅ Limitar los permisos y acceso de los modelos para evitar que interactúen con sistemas críticos sin autorización.
✅ Proteger la integridad del entrenamiento para prevenir el envenenamiento de datos y garantizar que los modelos no sean manipulados.
✅ Monitorizar el comportamiento del modelo en producción para detectar patrones anómalos que puedan indicar un ataque o una vulnerabilidad explotada.
A medida que los LLM se vuelven más integrales en la infraestructura digital, asegurar su fiabilidad y seguridad será fundamental para su adopción a largo plazo. La publicación de OWASP sirve como una guía esencial para fortalecer los sistemas de IA y minimizar los riesgos emergentes en esta tecnología en rápida evolución.