La adopción de asistentes de Inteligencia Artificial en el puesto de trabajo está avanzando a un ritmo vertiginoso, especialmente en suites ofimáticas donde el correo electrónico sigue siendo el centro de gravedad de la empresa. En ese contexto, Microsoft ha confirmado un incidente incómodo para cualquier responsable de seguridad: un bug en Microsoft 365 Copilot provocó que el asistente resumiera correos marcados como confidenciales pese a que las organizaciones tuvieran políticas de Prevención de Pérdida de Datos (DLP) configuradas para evitar precisamente ese tipo de tratamiento automatizado.
El problema, identificado internamente como CW1226324 y detectado el 21 de enero de 2026, afecta a una pieza concreta del producto: el chat de Copilot en la pestaña “work” (entorno de trabajo). Según la información compartida en avisos de servicio y recogida por medios especializados, el fallo permitía que Copilot Chat leyera y generara resúmenes de mensajes almacenados en las carpetas Enviados y Borradores, incluso cuando esos correos llevaban etiquetas de confidencialidad destinadas a restringir su acceso por herramientas automáticas.
Por qué este bug preocupa al mundo de la IA empresarial
El incidente toca un nervio sensible: en muchas compañías, el marco de control para la Inteligencia Artificial no se basa en un “no usar IA”, sino en gobernarla con las mismas herramientas de siempre (clasificación, controles de acceso, auditoría y DLP). Las etiquetas de sensibilidad y las políticas DLP funcionan como un cinturón de seguridad: señalan qué contenido es delicado y, si está bien diseñado el sistema, impiden que se procese o se exponga fuera de los límites permitidos.
Copilot, además, no opera como una IA “en vacío”. Su valor diferencial es ser consciente del contexto corporativo: se conecta a contenidos de Microsoft 365 y los utiliza para responder preguntas y redactar resúmenes. Y ahí entra el riesgo: si el mecanismo que decide qué puede leer falla, el asistente puede terminar trabajando con material que la organización había marcado como fuera de alcance.
Microsoft describe el origen del problema como un “error de código” que permitía que elementos de Enviados y Borradores fueran “capturados” por el chat de Copilot pese a existir etiquetas confidenciales y políticas DLP.
Copilot Chat en expansión y controles bajo presión
El episodio llega en un momento en el que Microsoft está empujando Copilot hacia el corazón de la productividad. Copilot Chat empezó a desplegarse para clientes empresariales de pago en septiembre de 2025, integrándose en aplicaciones como Word, Excel, PowerPoint, Outlook y OneNote. Ese despliegue acelerado ha ampliado el alcance de la IA dentro de las organizaciones… y, con ello, la superficie de riesgo.
Para un medio especializado en IA, el matiz importante es que no se trata de una vulnerabilidad clásica de “filtración por fallo de cifrado” al estilo de una brecha en un servidor. Es un problema de aplicación de políticas: la barrera existía (etiqueta + DLP), pero en este flujo concreto no actuó como se esperaba. En la práctica, eso puede traducirse en que un usuario, preguntando por un tema en Copilot, reciba un resumen que incluya datos de mensajes que la organización pretendía blindar.
Qué se sabe de la corrección y qué sigue sin aclararse
Microsoft aseguró que comenzó a desplegar un arreglo a principios de febrero y que continuaba monitorizando su implantación, contactando con un subconjunto de usuarios afectados para confirmar que la corrección funciona. Sin embargo, la compañía no ha ofrecido un calendario definitivo de remediación completa ni ha detallado cuántas organizaciones o usuarios se vieron impactados, limitándose a indicar que el alcance podía variar a medida que avanzaba la investigación.
Otro detalle relevante es la clasificación del incidente: se ha etiquetado como “advisory”, una categoría habitual para incidencias de servicio que Microsoft suele usar cuando considera que el impacto es limitado o acotado. Aun así, el hecho de que afecte a contenido “confidencial” hace que la etiqueta se perciba con escepticismo en sectores regulados, donde el daño reputacional o de cumplimiento no siempre guarda relación con el número de usuarios afectados.
Una señal de alarma para la “IA con guardarraíles”
En el discurso comercial de la IA empresarial, la palabra clave es “guardarraíles”: límites técnicos y de cumplimiento para que el asistente sea útil sin poner en riesgo datos sensibles. Este caso muestra que esos guardarraíles no pueden considerarse una garantía estática, sino un conjunto de controles que deben validarse continuamente.
Voces del ecosistema Microsoft han descrito el episodio como especialmente embarazoso porque el fallo afectaba justo a la promesa de control: DLP configurado para impedirlo y, aun así, resúmenes generados por Copilot Chat.
La lectura para el mercado de la IA es clara: cuanto más “agénticos” y contextuales sean los asistentes (más conectados a correo, documentos y flujos internos), más importante se vuelve el gobierno de datos y la verificación posterior a cada cambio de código. No basta con “activar Copilot y confiar”; hay que tratarlo como un sistema vivo que requiere pruebas, auditorías y, sobre todo, planes de respuesta cuando algo no se comporta como promete.
Qué puede hacer una organización hoy sin entrar en pánico
Sin inventar medidas específicas que Microsoft no haya recomendado públicamente para este caso, sí hay una hoja de ruta prudente y realista:
- Revisar el centro de administración y los avisos de estado del servicio asociados a Copilot para ver si el inquilino (tenant) aparece como afectado por CW1226324.
- Verificar el comportamiento tras la corrección: pruebas internas con correos etiquetados y políticas DLP en un entorno controlado.
- Revisar la configuración de DLP y etiquetas para Copilot y Copilot Chat dentro de Microsoft Purview, asegurando que la intención de la organización está correctamente plasmada en políticas.
- Documentar y auditar: en cualquier incidente de IA, la trazabilidad es tan importante como la mitigación técnica, especialmente en cumplimiento y eDiscovery.
La conclusión incómoda es que la IA corporativa está entrando en la fase en la que los fallos ya no son “cosas de laboratorio”, sino incidentes operativos con impacto en políticas reales. Y en esa fase, la confianza no se compra con marketing: se gana con ingeniería, transparencia y capacidad de respuesta.
Preguntas frecuentes
¿Qué es Microsoft 365 Copilot Chat y por qué puede acceder a correos?
Es el chat de Copilot orientado al entorno de trabajo, diseñado para responder usando contexto de Microsoft 365. Su valor está en conectar con contenido corporativo, pero eso exige controles estrictos.
¿Qué falló en CW1226324: la etiqueta de confidencialidad o la política DLP?
Según Microsoft, fue un error de código que permitió que Copilot recogiera correos de Enviados y Borradores a pesar de existir etiquetas y una política DLP configurada.
¿Desde cuándo ocurría el problema y cuándo empezó el arreglo?
Microsoft detectó el incidente el 21 de enero de 2026 y comenzó a desplegar una corrección a principios de febrero, manteniendo monitorización posterior.
¿Se sabe cuántas empresas estuvieron afectadas?
No. Microsoft no ha publicado cifras y ha señalado que el alcance podía cambiar mientras avanzaba la investigación.







