Cada vez que hablas con un asistente, subes una foto o le pides a un chatbot que te resuma un email, estás entregando datos personales a un sistema de inteligencia artificial. Casi nadie se para a pensar dónde van esos datos, cuánto tiempo se quedan ahí ni quién los puede mirar. De eso va este artículo: qué hace la IA con tu información y qué puedes hacer tú —y qué tienes derecho a exigir— para que la privacidad no sea el precio invisible de usar estas herramientas.
El problema no es la IA en sí, sino el flujo de información que la alimenta. Los modelos de lenguaje (LLM) y los sistemas de visión por ordenador necesitan datos para funcionar y, en muchos casos, también para entrenarse. Ahí entran el RGPD europeo, la nueva AI Act y la pelea entre fabricantes, reguladores y usuarios por dónde poner el límite.
Qué datos personales acaban en un sistema de IA
Cuando hablamos de IA solemos pensar en ChatGPT, Gemini o Claude, pero el universo es mucho más amplio. Hay dos grandes familias que conviene tener claras antes de hablar de privacidad.
- Aprendizaje automático (machine learning): el sistema aprende patrones a partir de ejemplos. Lo usan los asistentes de voz, los buscadores, los filtros antispam, el reconocimiento facial del móvil o las recomendaciones de Netflix.
- Sistemas expertos y agentes: reglas y modelos que toman decisiones automáticas en banca, seguros, sanidad o atención al cliente. Aquí entran también los nuevos agentes de IA, capaces de leer correos, navegar por webs o ejecutar acciones por ti.
En los dos casos hay datos por medio. Algunos son obvios: correo, teléfono o ubicación. Otros pasan más desapercibidos, como el contenido de tus prompts, las imágenes que subes para que las analicen, los documentos que pegas en un chat o las grabaciones de un asistente de voz. Todo eso es información personal y, en muchos casos, también sensible.
Los riesgos reales, sin alarmismo
No todo es Black Mirror, pero los riesgos son concretos y conviene tenerlos identificados.
- Reutilización para entrenamiento: tus prompts pueden acabar usándose para entrenar futuras versiones del modelo si no desactivas esa opción. El caso de Samsung en 2023, que prohibió ChatGPT internamente tras filtrarse fragmentos de código fuente, sigue siendo el ejemplo de manual.
- Filtración por memorización: un modelo entrenado con datos sin filtrar puede repetir literalmente fragmentos sensibles ante el prompt adecuado, desde direcciones a contraseñas o números de tarjeta.
- Perfilado opaco: sistemas que cruzan tu actividad con datos públicos o comprados a terceros para inferir religión, salud, orientación política o sexual sin que lo hayas declarado.
- Decisiones automatizadas: aprobaciones de préstamos, primas de seguros o filtros de currículums basados en modelos opacos, sin un humano que pueda explicarte por qué te dijeron que no.
- Brechas de seguridad: los proveedores de IA son blanco prioritario de ciberataques, y una sola filtración puede exponer millones de conversaciones que dabas por privadas.
Lo que dice la ley en Europa: RGPD y AI Act
En la Unión Europea el marco está claro y es exigente. El Reglamento General de Protección de Datos (RGPD) obliga desde 2018 a tratar los datos personales con base legal, finalidad concreta y minimización. Si una empresa entrena un modelo con tus datos, tiene que poder justificar por qué, durante cuánto tiempo y cómo te permite ejercer tus derechos de acceso, rectificación o supresión.
A eso se suma la AI Act, el reglamento europeo de inteligencia artificial que entró en aplicación por fases desde 2025. Clasifica los sistemas por nivel de riesgo y prohíbe directamente algunos usos, como el reconocimiento biométrico masivo en espacios públicos o el social scoring estilo China. Para los usos de alto riesgo exige documentación técnica, supervisión humana y registros de auditoría. Esa lógica de control humano es la que analiza Revista Cloud en su artículo sobre gobernanza de IA en 2026, donde se explica cómo se está aplicando en grandes empresas.
España añade una capa propia con la Agencia Española de Protección de Datos (AEPD), que ya ha investigado a OpenAI, Worldcoin y otros proveedores por presunto incumplimiento del RGPD.
Qué pueden hacer los fabricantes de IA
La protección no se delega entera en el usuario. Los proveedores tienen herramientas técnicas y organizativas que sí mueven la aguja, y conviene saber pedirlas en cualquier contrato corporativo.
- Cifrado de extremo a extremo: que los datos viajen y se almacenen cifrados, con claves a las que ni el propio proveedor pueda acceder en abierto.
- Anonimización y seudonimización: separar identidad y dato. La AEPD acepta la anonimización si es irreversible; si no, sigue siendo dato personal.
- Minimización por defecto: recoger solo lo imprescindible, no «todo por si acaso». Es uno de los principios duros del RGPD y uno de los más incumplidos.
- Privacidad diferencial y aprendizaje federado: técnicas que permiten entrenar modelos sin que los datos en bruto salgan del dispositivo del usuario. Apple lleva años usando privacidad diferencial en iOS, y Google en Gboard.
- Filtros de entrada para datos sensibles: herramientas como el Privacy Filter de OpenAI, un modelo abierto que detecta y enmascara información personal antes de que llegue al LLM, marcan por dónde va el sector.
- Opt-out claro de entrenamiento: opción visible y fácil para que tus prompts no se usen como datos de entrenamiento. OpenAI, Anthropic y Google ya lo ofrecen, aunque suele estar escondido en menús.
- Auditorías y red teaming: tests de seguridad que buscan filtrar datos memorizados antes de que lo haga un atacante.
Qué puedes hacer tú hoy mismo
La parte que sí depende de ti tiene más impacto del que parece. Estos son los pasos que más reducen tu exposición sin renunciar a usar IA.
- Desactiva el uso de tus prompts para entrenamiento en ChatGPT, Gemini, Claude o el asistente que uses. Está en los ajustes de privacidad o de datos. Por defecto suele estar activado.
- No pegues información sensible en chats públicos: nóminas, números de tarjeta, contraseñas, historiales médicos, documentos de clientes o código propietario.
- Usa cuentas de empresa con DPA firmado si trabajas con datos de terceros. Las versiones «team» o «enterprise» suelen excluir el uso para entrenamiento por contrato.
- Revisa qué permisos das a los agentes: acceso a correo, calendario, archivos o navegador. Cada permiso amplía la superficie de exposición.
- Plantéate ejecutar modelos en local para datos especialmente sensibles. Es la dirección que toma el sector, como cuentan en este análisis sobre la nueva libertad de la IA fuera de la nube.
- Ejerce tus derechos RGPD ante el proveedor: acceso, rectificación, supresión y oposición. Si no responden en un mes, puedes reclamar ante la AEPD.
- Combina IA con buena higiene de seguridad: gestor de contraseñas, doble factor y revisión periódica de qué apps tienen acceso a tus cuentas. Las nuevas herramientas de seguridad asistida por IA, como las que describe nuestra cobertura de Claude Security, también ayudan a detectar fugas.
El reto de fondo: transparencia
Por mucha técnica que se aplique, la pieza que sigue cojeando es la transparencia. Las políticas de privacidad de los grandes modelos son largas, ambiguas y cambian cada pocos meses. Saber con exactitud qué hace un proveedor con tus datos exige un esfuerzo desproporcionado para el usuario medio, y eso choca de frente con el principio de información clara que pide el RGPD.
La presión regulatoria europea, las multas de la AEPD y el escrutinio público están empujando al sector a publicar fichas de modelo (model cards), informes de impacto y opciones de control más visibles. Mientras tanto, la mejor defensa sigue siendo el conocimiento: entender qué pasa cuando le hablas a una IA es ya parte de la alfabetización digital básica.
Preguntas frecuentes sobre IA y privacidad
¿Mis conversaciones con ChatGPT son privadas?
Tus chats se guardan en los servidores del proveedor, en muchos casos cifrados, pero el personal autorizado puede revisarlos para depuración o moderación. Por defecto pueden usarse para entrenar futuras versiones, salvo que desactives esa opción en los ajustes o uses un plan empresarial con DPA.
¿La AI Act prohíbe usar IA con datos personales?
No. La AI Act no prohíbe usar datos personales con IA, prohíbe ciertos usos concretos (biometría masiva, social scoring, manipulación) y añade obligaciones de transparencia, supervisión y documentación para los sistemas de alto riesgo. El tratamiento de datos personales sigue regulado, sobre todo, por el RGPD.
¿Puedo pedir que borren mis datos de un modelo entrenado?
Sí, el RGPD reconoce el derecho de supresión. En la práctica es complicado: borrar tus datos del histórico es viable, pero «desentrenar» un modelo es técnicamente complejo. Algunos proveedores aplican técnicas de machine unlearning o filtros sobre la salida para mitigarlo, y la AEPD ya ha abierto procedimientos por solicitudes no atendidas.
¿Es más privado usar IA en local que en la nube?
En general sí. Si ejecutas un modelo abierto (Llama, Mistral, Qwen, DeepSeek) en tu equipo o en un servidor propio, los datos no salen de tu infraestructura. Pierdes potencia frente a los modelos comerciales más grandes, pero ganas control y reduces drásticamente la superficie de exposición frente a fugas o cambios de política del proveedor.
¿Dónde puedo reclamar si creo que un proveedor de IA usa mal mis datos?
En España, ante la Agencia Española de Protección de Datos. Antes conviene escribir al delegado de protección de datos del proveedor (DPO) y dar un plazo razonable de respuesta. Si no contestan o la respuesta no te satisface, la reclamación oficial es gratuita y se puede presentar online.












