LinkedIn activará por defecto el uso de datos para entrenar IA de Microsoft: qué significa para la industria y cómo pueden reaccionar las y los usuarios

LinkedIn, propiedad de Microsoft, ha anunciado una revisión de su política de privacidad y términos de uso que entrará en vigor el 3 de noviembre de 2025. El cambio apunta de lleno al corazón de la economía de la IA: más datos para entrenar modelos generativos y más señales para personalizar anuncios, con activación por defecto (opt-out). La plataforma no pedirá un “sí” explícito; quien no quiera participar deberá desactivar manualmente la cesión.

La decisión sitúa a LinkedIn en la misma coordenada que otras grandes tecnológicas que, en los últimos meses, han reescrito sus condiciones para alimentar modelos con información de usuarios. En paralelo, reabre un debate que no cesa: consentimiento informado vs. fricción de producto, privacidad vs. utilidad, y la gran pregunta de fondo para el sector: ¿de dónde saldrán los datos de entrenamiento de la próxima ola de modelos?

Dos regímenes, un objetivo: alimentar la IA y afinar la publicidad

La compañía ha definido dos escenarios regionales:

  • EEE (incluida España), Reino Unido, Suiza y Canadá: LinkedIn podrá usar información de perfiles y publicaciones públicas para entrenar sus modelos de IA. El argumento oficial: mejorar búsqueda y emparejamiento de talento y habilitar funciones generativas más precisas (resúmenes de perfil, sugerencias de habilidades, redacción asistida, etc.).
  • Estados Unidos, Hong Kong y la mayoría de regiones: el énfasis pasa a compartir señales con Microsoft y filiales para optimizar publicidad (actividad en el feed, interacciones con anuncios y datos de perfil).

En ambos marcos, la participación es automática. Quien no haga nada estará dentro.

Lo que cambia para el ecosistema de IA

Para un medio de noticias de IA, el anuncio tiene tres lecturas de impacto inmediato:

  1. Oferta de datos “del mundo real”
    Los modelos generativos corporativos necesitan corpus actualizados y específicos. LinkedIn aporta un sustrato singular: texto profesional curado, relaciones laborales, tendencias sectoriales y lenguaje de negocio. Si la extracción se hace con garantías, la plataforma se convierte en mina de oro para tareas de matching, clasificación de habilidades, resumen contextual y recomendación laboral.
  2. Persistencia y gobernanza del aprendizaje
    El salto del “dato para analítica” al “dato para entrenamiento” cambia el contrato social. Una vez que un modelo aprende patrones de un corpus, revertir ese aprendizaje es difícil y a menudo incompleto. Esto exige gobernanza más estricta: ventanas de retención, datasets de entrenamiento versionados, trazabilidad de quién aportó qué y mecanismos de exclusión futura.
  3. Choque con la cultura del opt-in en Europa
    El opt-out maximiza cobertura por inercia; el opt-in eleva la calidad del consentimiento y, previsiblemente, reduce datos disponibles. La elección de LinkedIn tensiona el estándar europeo y anticipa revisión regulatoria si el encaje con el RGPD no convence a autoridades y grupos civiles.

¿Qué gana (y qué arriesga) Microsoft?

  • Señales de alta calidad para Copilot y productos B2B: perfiles, descripciones de puestos y conversaciones públicas conforman un corpus profesional que puede mejorar el desempeño de asistentes corporativos y sistemas de recomendación en el stack Microsoft.
  • Mejora de performance publicitaria en mercados no EEE: con más señales, la segmentación puede reducir ruido y elevar ROI.
  • Riesgo reputacional: si el relato público se instala en el “te meten dentro por defecto”, el coste en confianza puede superar el beneficio de corto plazo. El precedente de Meta en la UE (frenazo por presión social y legal) sirve de aviso.

¿Es distinto a la publicidad tradicional?

Sí. La publicidad clásica trabaja con señales efímeras y agregadas; el entrenamiento de modelos construye una memoria estadística más duradera. El salto incrementa la responsabilidad: claridad sobre qué datos entran, para qué tareas, durante cuánto tiempo y con qué posibilidad de exclusión futura.

Guía práctica: cómo desactivar el uso de tus datos

El recorrido puede variar por región y versión, pero la lógica es similar:

  1. Abre Configuración y privacidad desde tu foto de perfil.
  2. Entra en Datos de publicidad.
  3. Busca Compartir datos con terceros o afiliados y desactívalo.
  4. Revisa Privacidad de los datos / uso para funciones de IA (el nombre puede variar) y desactiva el empleo de tu información para entrenamiento o mejora de modelos.
  5. Guarda y vuelve a comprobar que el cambio queda aplicado.
  6. Repite la revisión periódicamente: políticas y toggles pueden actualizarse.

Para equipos de empresa, conviene acompañar con una política interna: guía de 1 página con capturas, calendario de revisión y recomendaciones por perfiles de riesgo (dirección, RR. HH., ventas, I+D).

Efectos colaterales para usuarios y organizaciones

  • Usuarios/as: al desactivar, puede disminuir la personalización de recomendaciones y ciertas funciones de IA; a cambio, se recorta la huella utilizada para entrenamiento y segmentación.
  • Departamentos de RR. HH.: si la activación por defecto prospera, es probable que mejoren búsquedas y emparejamientos a medio plazo, aunque el retorno real dependerá de calidad de datos y adopción.
  • Cumplimiento y seguridad: organizaciones con compromisos de minimización y consentimiento activo deberían alinear su discurso interno con acciones concretas (instrucciones para desactivar, DPIA cuando aplique, registro de decisiones).

El patrón de la industria: mucho apetito, poca paciencia

El movimiento encaja con una secuencia ya conocida:

  • Spotify amplió términos para usar datos personales en modelos de recomendación.
  • Meta trató de entrenar con publicaciones públicas en la UE hasta toparse con la respuesta de organizaciones de privacidad.
  • Anthropic pide consentimiento y retiene conversaciones hasta cinco años (según sus políticas).
  • SoundCloud y WeTransfer ajustaron su postura tras críticas públicas.

Cada caso ilustra la fricción entre necesidad de datos y expectativas sociales y legales. El desenlace acostumbra a ser híbrido: concesiones técnicas (más controles), segmentación por regiones y matices en los textos legales.

Lo que mirar en los próximos meses

  • Reacción regulatoria en el EEE: si el opt-out para entrenamiento supera el listón de consentimiento válido del RGPD.
  • Transparencia técnica: documentación sobre datasets, ventanas de retención, métodos de anonimización y canales de exclusión.
  • Efecto red: cuántas personas desactivan realmente; un alto porcentaje de opt-out reduce el valor del corpus.
  • Señales en producto: mejoras visibles en búsquedas, recomendaciones y herramientas generativas de LinkedIn que justifiquen, ante el público, el intercambio.

Preguntas frecuentes

¿LinkedIn usará mensajes privados para entrenar modelos?
Lo anunciado se centra en perfiles y publicaciones públicas, así como en señales de interacción. La distinción entre contenido público y privado es clave; la plataforma deberá delimitar claramente qué entra en datasets de entrenamiento.

Si desactivo el uso para IA, seguiré viendo IA en LinkedIn?
Sí, pero con menos personalización. Desactivar evita que tu información alimente el entrenamiento; no impide que la plataforma use modelos para funciones generales.

¿Por qué es relevante la diferencia entre opt-in y opt-out?
Porque el opt-out activa el tratamiento sin tu “sí” explícito y desplaza la carga a la persona usuaria. El opt-in obliga a la plataforma a obtener consentimiento informado y suele traducirse en menos datos, pero más legitimidad.

¿Esto hará mejores los asistentes tipo Copilot?
Potencialmente, sí, en casos de uso profesionales: resúmenes de perfil, extracción de habilidades, redacción y matching. El impacto dependerá de la escala de datos disponibles, de la calidad del corpus y de cómo se integren esas señales en los pipelines de entrenamiento y evaluación.


Nota editorial: Esta cobertura resume la actualización anunciada por LinkedIn con entrada en vigor el 3 de noviembre de 2025, el desglose regional de finalidades (entrenamiento de IA en EEE/UK/CH/CA y personalización publicitaria en otras regiones) y el procedimiento para opt-out. No se incluyen enlaces a petición del lector.

Scroll al inicio