La compañía activa notificaciones para informar sobre el uso de contenido compartido por adultos en la UE, ofreciendo mecanismos de objeción accesibles
Meta ha comenzado a entrenar sus modelos de Inteligencia Artificial (IA) utilizando contenido público generado por adultos en sus plataformas dentro de la Unión Europea. La medida, anunciada tras el 15 de abril de 2025, incluye el uso de publicaciones y comentarios visibles públicamente, así como las interacciones de los usuarios europeos con Meta AI, su asistente conversacional basado en IA generativa.
Según ha confirmado la empresa, el objetivo es mejorar la comprensión cultural, lingüística e histórica de sus modelos para adaptarlos mejor a las particularidades de los ciudadanos europeos. Esta decisión se produce un mes después del lanzamiento de Meta AI en Europa, que ofrece funciones conversacionales en aplicaciones como Facebook, Instagram, WhatsApp y Messenger.
Desde esta semana, los usuarios de la UE están recibiendo notificaciones dentro de las aplicaciones y por correo electrónico. En ellas, se explica qué tipo de datos se utilizarán y cómo estos contribuyen a mejorar la experiencia general de uso. Además, Meta ha habilitado un formulario accesible para que cualquier persona pueda oponerse a que sus datos sean utilizados para estos fines. La compañía asegura que respetará todas las objeciones recibidas, incluidas las ya enviadas con anterioridad.
En línea con su política de privacidad, Meta ha reiterado que no utilizará mensajes privados entre familiares o amigos para entrenar sus modelos de IA. También ha confirmado que los datos públicos de usuarios menores de 18 años en la UE quedarán completamente excluidos de este proceso.
“La IA que construimos no solo debe estar disponible para los europeos, sino ser realmente construida para ellos”, ha señalado la compañía en su comunicado. Meta subraya la importancia de entrenar sus modelos con una amplia diversidad de datos para reflejar las complejidades de las distintas comunidades europeas, incluyendo dialectos, expresiones locales, referencias culturales o el uso del sarcasmo, especialmente ahora que sus modelos comienzan a incorporar capacidades multimodales —texto, voz, imagen y vídeo—.
La estrategia de Meta no es única en el sector. Google y OpenAI ya han utilizado datos públicos de usuarios europeos para entrenar sus respectivos modelos de IA. No obstante, Meta defiende que su enfoque es más transparente que el de otras compañías tecnológicas.
La empresa con sede en Menlo Park afirma que su actuación se ajusta a la legislación europea en materia de protección de datos. En 2024, Meta decidió posponer el entrenamiento de sus grandes modelos lingüísticos hasta recibir claridad por parte de los reguladores. Tras el dictamen del Comité Europeo de Protección de Datos (EDPB) en diciembre, que validó la legalidad de su planteamiento original, Meta reanudó su estrategia y ha mantenido desde entonces una interlocución fluida con la Comisión de Protección de Datos de Irlanda (IDPC).
Con este paso, Meta refuerza su apuesta por una IA más localizada y personalizada, en un contexto europeo marcado por una creciente sensibilidad social y normativa en torno al uso de datos personales.
Fuente: Meta