Ceder tus fotos a la IA: los riesgos ocultos que pocos usuarios conocen

Redes sociales y empresas de inteligencia artificial se reservan el derecho de usar las imágenes que subimos para entrenar sus modelos. Expertos de la UOC alertan sobre las consecuencias legales, éticas y personales.

Subir una foto a una red social o a un generador de imágenes por inteligencia artificial puede parecer un gesto cotidiano e inocente, pero detrás de ese clic se esconde una cesión de derechos que a menudo pasa desapercibida. Las condiciones de uso de estas plataformas, que rara vez son leídas por completo, otorgan a las empresas permisos amplios para almacenar, procesar e incluso reutilizar el contenido, a veces para fines tan amplios como el entrenamiento de modelos de IA.

Según advierten investigadores de la Universitat Oberta de Catalunya (UOC), este uso masivo y opaco de material visual plantea riesgos que van más allá de la simple pérdida de control sobre una imagen.

“Muchas veces no nos damos cuenta de la cesión de derechos que otorgamos cuando usamos un servicio digital. Solo vemos lo que nos aporta, pero no a lo que nos estamos comprometiendo”, explica Silvia Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la UOC e investigadora del grupo GAME.


De lo personal a lo público… y de ahí al dataset de entrenamiento

En la práctica, cualquier imagen publicada en internet puede ser replicada, alterada o descargada por terceros. Esto ya sucedía en redes sociales, pero con la IA la magnitud se multiplica: esas fotos pueden integrarse en enormes bases de datos para entrenar algoritmos, sin que el usuario sea consciente de ello ni reciba compensación alguna.

Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, lo explica con una analogía sencilla:

“Imagina que enseñas a un niño a reconocer una cara mostrándole varias fotos de la misma persona desde distintos ángulos. Poco a poco, aprenderá a identificarla. Las IA funcionan igual: cuantas más imágenes tengan de una persona, más precisos serán los modelos para reconocer y recrear sus rasgos, gestos o expresiones.”

Esto no solo abre la puerta a la identificación masiva sin consentimiento, sino también a la creación de deepfakes hiperrealistas o a la manipulación de la imagen personal para fines no autorizados.


El marco legal, insuficiente y con vacíos internacionales

Eduard Blasi, profesor colaborador de los Estudios de Derecho y Ciencia Política de la UOC, apunta que las legislaciones actuales no siempre ofrecen una protección efectiva, sobre todo cuando las plataformas o los servidores se encuentran en otros países con normativas más laxas.

En la Unión Europea, el Reglamento General de Protección de Datos (RGPD) garantiza ciertos derechos como la rectificación o supresión de datos, pero su aplicación en el contexto del entrenamiento de IA es compleja. Muchos proveedores se amparan en cláusulas contractuales para justificar el uso de los contenidos, lo que complica cualquier reclamación posterior.


Riesgos concretos de ceder imágenes personales a la IA

  1. Pérdida de control total: una vez subidas, las fotos pueden almacenarse indefinidamente y reutilizarse en contextos imprevistos.
  2. Identificación biométrica: los sistemas pueden extraer datos únicos de tu rostro, como la distancia entre ojos o la forma de la mandíbula.
  3. Manipulación de identidad: creación de deepfakes o imágenes falsas con fines maliciosos o difamatorios.
  4. Comercialización encubierta: las imágenes pueden acabar en datasets vendidos a terceros sin que el usuario lo sepa.
  5. Impacto en la privacidad familiar: si en las fotos aparecen menores, el riesgo se multiplica.

Recomendaciones para usuarios

Los expertos de la UOC recomiendan leer detenidamente las políticas de privacidad, evitar subir imágenes de carácter íntimo o que incluyan menores, y, cuando sea posible, usar herramientas que bloqueen la reutilización de contenido para entrenamiento de IA, aunque hoy en día estas opciones son limitadas.

En palabras de Silvia Martínez:

“La prevención es la única garantía real. Una vez que una imagen entra en el circuito de entrenamiento de una IA, recuperarla o eliminarla es prácticamente imposible.”


Preguntas frecuentes (FAQ)

1. ¿Todas las redes sociales usan mis fotos para entrenar IA?
No todas lo hacen de forma explícita, pero muchas incluyen cláusulas amplias que les permiten utilizar tu contenido con fines de desarrollo tecnológico.

2. ¿Puedo evitar que mi imagen se use en un dataset de IA?
En teoría, sí, ejerciendo tus derechos de supresión o limitación, pero en la práctica es difícil si la empresa está fuera de la UE o si la imagen ya se ha replicado en múltiples servidores.

3. ¿Qué riesgos tiene un deepfake creado con mis fotos?
Puede usarse para suplantación de identidad, extorsión, manipulación política o difusión de contenido falso asociado a tu imagen.

4. ¿Es legal entrenar IA con fotos públicas de internet?
Depende de la jurisdicción. En la UE, el consentimiento es clave, pero en otros países basta con que el contenido sea de acceso público.

Scroll al inicio