Ceder tus fotos a la IA: los peligros invisibles y desconocidos

Redes sociales y compañías desarrolladoras de inteligencia artificial se reservan el derecho de utilizar las imágenes subidas por los usuarios para entrenar a sus modelos

El problema invisible: cuando nuestras fotos alimentan a las máquinas

Uno de los grandes misterios del mundo digital es si realmente existe alguien que se haya leído de manera sistemática los términos y condiciones de uso de plataformas y servicios digitales, redes sociales o, más recientemente, ecosistemas de inteligencia artificial. Y, aunque pueda parecer gracioso, en realidad es peligroso no hacerlo, a pesar de que en muchos casos vaya a servir de poco porque el común de los mortales probablemente no podría comprender en toda su extensión determinados límites ni prácticas que le afectarán directamente como usuario de esos servicios.

«Muchas veces no nos damos cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un determinado servicio digital. Solo vemos lo que nos aporta, pero no a lo que nos estamos comprometiendo», reconoce Silvia Martínez, profesora de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC) e investigadora del grupo GAME.

El entrenamiento con rostros reales: así aprenden las IA

Las imágenes publicadas pueden ser utilizadas para construir perfiles detallados de los individuos, sus movimientos y sus relaciones, a menudo sin su consentimiento o conocimiento. La irrupción de la inteligencia artificial implica añadir una capa adicional de riesgo a la actividad digital de los usuarios.

Como explica Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC: «Imagina que enseñas a un niño a reconocer una cara: le muestras varias fotos de la misma persona, desde distintos ángulos, con diferentes expresiones. Poco a poco, empieza a identificarla. Pues las inteligencias artificiales aprenden de forma parecida: para entrenarlas con imágenes personales, se les da una colección de fotos o vídeos en los que aparece siempre la misma persona. Cuantas más imágenes tenga, mejor aprenderá sus rasgos: la forma de los ojos, la curvatura de la sonrisa, el tono de piel, la manera en que se arrugan los párpados al reír…»

Los gigantes tecnológicos ya usan tus datos: el caso de Meta

Meta lleva ya un tiempo usando tus publicaciones para entrenar su inteligencia artificial. En el caso de sus otras plataformas, las redes sociales como Instagram y Facebook, Meta comenzará a usar las imágenes de los usuarios a partir del 26 de junio.

Meta ha empezado desde el 27 de mayo de 2025 a utilizar el contenido público que comparten en sus plataformas los usuarios de la UE para entrenar su inteligencia artificial. Meta usará contenido compartido por los usuarios, como publicaciones y fotos con descripciones, para desarrollar sus modelos de IA.

¿Qué contenido utilizan exactamente?

Según las políticas de Meta, utilizan:

  • Imágenes y vídeos de las publicaciones
  • Texto de descripciones y comentarios
  • Menciones a otros usuarios
  • Información en publicaciones o pies de foto

Los mensajes privados quedan fuera de este entrenamiento a su modelo de IA generativa.

OpenAI y ChatGPT: los riesgos de compartir fotos personales

La Política de privacidad de OpenAI establece de manera clara cómo se gestionan los datos personales que los usuarios comparten al interactuar con sus servicios. OpenAI también puede utilizar los datos para fines comerciales o para desarrollar nuevas funcionalidades.

Los peligros específicos de subir fotos a ChatGPT:

Si se llegara a producir una brecha de seguridad, las fotos personales, junto con sus metadatos, podrían quedar expuestas, lo que pone en riesgo la privacidad de los usuarios. Además, OpenAI podría no garantizar que las imágenes se eliminen de manera definitiva una vez que han sido procesadas.

Cuando subes una foto personal para transformarla en arte con IA, a menudo estás entregando información sensible a plataformas cuyos protocolos de privacidad pueden no ser claros. La foto podría almacenarse, analizarse o incluso compartirse sin tu conocimiento.

Adobe y el engaño de la «IA ética»

Un caso particularmente revelador es el de Adobe. Adobe quiso evitar cualquier tipo de inconveniente a nivel de copyright al asegurar que su familia de modelos de IA había sido entrenada con imágenes de Adobe Stock, así como contenido con licencia abierta y contenido de dominio público. Lo que no se sabía era que Adobe había utilizado imágenes de competidores como Midjourney para alimentar su modelo teóricamente más ético.

La estrategia llevada a cabo por Adobe ha generado desacuerdos internos entre sus empleados. Algunos incluso han sugerido que Adobe pause su plataforma de generación de imágenes durante un tiempo.

Los riesgos jurídicos y legales

Derechos de imagen y privacidad

En caso de que realicen un vídeo o una foto con nuestra imagen, se podrá denunciar y pedir su retirada, ya que no solo se considera una intromisión ilegítima al honor en base al artículo 7.7 de la LOHI, sino que además «se considera una clara vulneración a la privacidad de la persona».

Creación de deepfakes y contenido malicioso

Las tecnologías de deepfake se han vuelto increíblemente sofisticadas. Al proporcionar nuestras imágenes a plataformas de IA, estamos facilitando potencialmente la creación de contenido que simule ser nosotros.

Las IA generativas permiten crear contenidos hiperrealistas que engañan fácilmente al público. Esto incluye la posibilidad de crear:

  • Videos falsos con fines maliciosos
  • Imágenes comprometedoras
  • Suplantación de identidad
  • Contenido para campañas de desinformación

Los términos de uso: letra pequeña con grandes consecuencias

Estos suelen incluir cláusulas que otorgan a la empresa derechos amplios sobre el contenido subido, incluyendo licencias no exclusivas, transferibles, sublicenciables y de alcance mundial.

Ejemplos de políticas de empresas:

Canva: puedes usar las imágenes generadas con nuestras herramientas de IA para cualquier propósito, incluyendo proyectos personales o comerciales, siempre que sigas nuestros Términos de productos con IA. Sin embargo, si vas a utilizar contenido generado por IA en proyectos comerciales, es posible que no tengas derechos exclusivos sobre esas imágenes.

Midjourney: las imágenes creadas con Midjourney sólo pueden utilizarse con fines comerciales en el marco de un plan de suscripción. No puedes utilizar imágenes creadas con un plan gratuito o por otros usuarios.

La permanencia digital: una vez en internet, siempre en internet

Una vez que una imagen se publica en línea, su eliminación completa se vuelve casi imposible. Estas imágenes pueden ser copiadas, compartidas y almacenadas en numerosos servidores y dispositivos, permaneciendo accesibles y distribuibles indefinidamente.

La tecnología de reconocimiento facial, impulsada por avances en IA, facilita la identificación y el seguimiento de individuos en fotografías en línea.

El problema de la falta de transparencia

La complejidad del contexto estadístico, los algoritmos y los modelos en los que se basa la elaboración y el funcionamiento de los sistemas de IA, así como el carácter secreto que le confieren los gobiernos y los agentes privados, contribuyen a que la población en general no alcance a comprender la repercusión.

Un estudio de Kaspersky realizado en 2019 mostraba un panorama alarmante: más del 64% de los latinoamericanos admitían no leer las políticas de privacidad de las aplicaciones ni reflexionar sobre el uso de sus datos personales.

¿Cómo protegerte? Medidas prácticas

1. Para evitar que Meta use tus datos:

En Europa, puedes oponerte siguiendo estos pasos:

  • Ve a tu perfil de Instagram y pulsa las tres líneas del menú
  • Selecciona «Información» > «Política de privacidad»
  • Busca «derecho a oponerte» y completa el formulario

En el formulario puedes escribir: «No doy mi consentimiento para que Meta use las imágenes, vídeos, audios o cualquier contenido multimedia subido por mí a ninguna de las plataformas que formen parte del grupo empresarial Meta».

2. Precauciones generales:

Limitar el intercambio de información: evitar compartir fotos sensibles o datos personales al utilizar estas plataformas. Usar imágenes genéricas: siempre que sea posible, opta por fotos de paisajes o imágenes no identificables en lugar de retratos personales.

Entender los riesgos asociados al uso gratuito: al utilizar herramientas de inteligencia artificial de forma gratuita, el «producto» suele ser el usuario, lo que implica que tus datos podrían ser utilizados con fines publicitarios.

3. Recomendaciones adicionales:

  • Lee las políticas de privacidad antes de usar cualquier herramienta de IA
  • Elimina metadatos de las fotografías antes de subirlas
  • Configura opciones de privacidad cuando estén disponibles
  • Considera herramientas que ofrezcan mayor control sobre tus datos
  • Evita subir fotos de menores o imágenes especialmente sensibles

El marco legal actual: insuficiente pero evolucionando

Por el momento no hay ninguna ley en España que obligue a identificar que un contenido ha sido creado con inteligencia artificial. La Unión Europea está trabajando en una propuesta de reglamento, la AI Act, que buscará establecer obligaciones a las empresas para la detección de los contenidos generados con esta tecnología.

Una reflexión final: el precio de la comodidad

Si Meta o cualquier otra empresa quiere utilizar nuestros datos, debe ser transparente con ello en su política de privacidad. Sin embargo, la realidad es que la carrera por desarrollar la mejor inteligencia artificial está en pleno auge. Esto impacta significativamente a las empresas tecnológicas.

El problema fundamental radica en que estamos cediendo algo invaluable – nuestras imágenes, nuestra identidad visual, nuestros rostros – a cambio de servicios «gratuitos» que en realidad se financian con nuestros datos. La inteligencia artificial (IA) se encuentra en una etapa de madurez sin precedentes, pero con cada avance, emergen nuevos riesgos: amenazas a la seguridad, la privacidad, la economía y la democracia.

La pregunta que debemos hacernos como usuarios es: ¿realmente entendemos el precio que estamos pagando por estos servicios aparentemente gratuitos? Y más importante aún: ¿estamos dispuestos a seguir pagándolo?

Conclusión

Los peligros de ceder nuestras fotos a la inteligencia artificial van mucho más allá de lo que podemos imaginar. Desde la creación de deepfakes hasta el uso comercial no autorizado de nuestra imagen, pasando por la construcción de perfiles detallados de reconocimiento facial, los riesgos son múltiples y en gran parte invisibles para el usuario común.

La tecnología avanza más rápido que la legislación, y mientras los marcos legales se adaptan, es responsabilidad de cada usuario informarse y tomar decisiones conscientes sobre qué comparte en línea. El precio de la ignorancia digital puede ser muy alto, y una vez que nuestras imágenes están en manos de algoritmos de IA, recuperar el control sobre ellas puede ser prácticamente imposible.

La educación digital y la conciencia sobre estos riesgos son nuestras mejores herramientas de defensa en un mundo donde la inteligencia artificial se alimenta cada vez más de nuestra identidad visual.

Scroll al inicio