Proofpoint alerta de nuevos riesgos de ciberseguridad con los grandes modelos de lenguaje

La forma en que las personas trabajan, se comunican e innovan ha cambiado con la irrupción de los grandes modelos de lenguaje, conocidos como LLM. Esta tecnología de Inteligencia Artificial, presente en herramientas como ChatGPT o Gemini, está acelerando flujos de trabajo y aportando nuevas capacidades para acceder a conocimiento y automatizar tareas. Sin embargo, su adopción también está abriendo un frente de riesgos que, según advierte Proofpoint, obliga a repensar la seguridad con la que se despliegan y utilizan estos sistemas.

Fernando Anaya, country manager de Proofpoint para España y Portugal, subraya que el potencial de los LLM viene acompañado de responsabilidad. “Si algo sale mal, las consecuencias pueden ser graves”, afirma, citando entre los posibles impactos la exposición de datos sensibles, la difusión de contenido perjudicial o engañoso, el incumplimiento de normativas e incluso la pérdida de confianza en los sistemas de IA.

Uno de los problemas que se repite, según el enfoque planteado, es que estos modelos pueden equivocarse de manera convincente. Esa aparente solvencia, unida a la dependencia creciente, puede hacer que resulte más difícil cuestionar sus respuestas. En ese contexto, se insiste en la necesidad de mantener una visión crítica, al mismo tiempo que se avanza en la construcción de modelos más capaces.

Proofpoint sostiene que la ciberseguridad tradicional no se diseñó pensando en este tipo de sistemas. “La ciberseguridad tradicional no se diseñó pensando en los LLM, lo que abre una nueva categoría de vulnerabilidades a las que enfrentarse”, explica Anaya. A diferencia de otras tecnologías, los LLM generan lenguaje dinámico y presentan un comportamiento menos predecible, lo que dificulta tratarlos como si fueran sistemas convencionales que se pueden “parchear” o auditar del mismo modo. A esto se suma la dificultad de entender por qué producen ciertos resultados, ya que operan como “cajas negras”, complicando la detección de problemas como la inyección de instrucciones o prompts y el envenenamiento de datos.

El texto también señala que los ataques pueden ir más allá de la manipulación directa mediante comandos. Se describe la posibilidad de que los ciberdelincuentes intenten inferir con qué datos se ha entrenado un modelo o forzar conexiones con APIs inseguras o con plugins de terceros. Entre las tácticas contempladas figura también la sobrecarga de los modelos con indicaciones largas y repetitivas, lo que puede ralentizar o incluso bloquear servicios de IA.

Aun con ese abanico de amenazas, se apunta a una práctica que destaca sobre el resto por su efectividad actual: el phishing basado en ingeniería social a gran escala. La idea es que los LLM facilitan la redacción y distribución de mensajes creíbles que imitan comunicaciones legítimas, con el objetivo de robar credenciales y provocar brechas de datos. En otras palabras, la IA puede convertirse en un acelerador de campañas que ya existían, pero ahora con mayor capacidad de personalización y volumen.

Anaya enmarca este escenario dentro de un reto que evoluciona a gran velocidad. “Cuando se trata de una tecnología que evoluciona de manera tan rápida y poderosa, el desafío es asimismo único; y las medidas de seguridad deben ser sólidas para garantizar la protección de datos y la normativa vigente”, afirma. En esa línea, se remarca que la tendencia no parece ir a menos, especialmente a medida que los LLM se integren en herramientas cotidianas para los usuarios como Google Workspace y Microsoft 365, lo que obliga a que la defensa se adapte a ese ritmo para detectar posibles puntos ciegos.

La advertencia no se plantea como un problema lejano. Se citan ejemplos que, según el texto, muestran que los riesgos ya se han materializado. Entre ellos, el caso de Samsung, cuyos ingenieros introdujeron código fuente e información interna en ChatGPT para depurar código y resumir notas como parte de una tarea rutinaria. Sin intención maliciosa, el episodio generó temores sobre una posible exposición de secretos comerciales, en un contexto en el que se indica que ChatGPT almacena los datos introducidos por los usuarios para mejorar su rendimiento. Tras el incidente, Samsung restringió el uso de ChatGPT y creó herramientas de IA para uso interno.

También se menciona el caso de DeepSeek AI, descrita como una startup china con un modelo potente y más accesible que otros, pero que almacena los datos de los usuarios en servidores a los que puede acceder el Gobierno chino, lo que suscita preocupaciones sobre privacidad y seguridad de esa información.

Como respuesta, se proponen medidas de seguridad tanto desde el uso diario como desde el plano técnico. En primer lugar, se plantea limitar los datos compartidos a lo estrictamente necesario y revisar siempre las respuestas para evitar exposición de información confidencial. Desde el punto de vista más operativo, se recomienda aplicar controles de acceso basados en roles, ajustar restricciones de seguridad y realizar auditorías y pruebas de penetración periódicas que contemplen de forma específica los riesgos asociados a los LLM.

En la conclusión, Proofpoint defiende que las estrategias tradicionales deben evolucionar para encajar en un entorno donde la IA forma parte del flujo de trabajo. “Las estrategias tradicionales de seguridad de datos deben evolucionar para incorporar capacidades adaptativas y mecanismos de respuesta inteligentes adaptados al entorno de la IA, que autentiquen a los usuarios, prevengan el acceso no autorizado y evalúen continuamente cada interacción”, resume Anaya, con la idea de que solo así los LLM podrán ganarse la confianza sin frenar la innovación.

Scroll al inicio