OpenAI ha reconocido públicamente un nuevo incidente de seguridad que no afecta directamente a sus sistemas, pero sí a uno de sus proveedores: Mixpanel, la plataforma de analítica que utilizaba para medir el uso del frontend de su producto de API (platform.openai.com). El caso vuelve a poner el foco en uno de los puntos más delicados del ecosistema de la inteligencia artificial: la cadena de terceros que maneja datos sensibles alrededor de los grandes modelos.
Según la comunicación enviada a clientes y usuarios de la API, un atacante consiguió acceso no autorizado a parte de la infraestructura de Mixpanel y exportó un conjunto limitado de datos relacionados con cuentas de la API de OpenAI. La compañía subraya que no se trata de una brecha en sus propios sistemas y que los datos más críticos —como chats, peticiones a la API, claves, contraseñas o información de pago— no se han visto comprometidos.
Qué ha pasado exactamente con Mixpanel
El incidente se originó en Mixpanel, un proveedor de analítica muy utilizado en el sector tecnológico para medir el uso de aplicaciones web y móviles. El 9 de noviembre de 2025, Mixpanel detectó que un atacante había obtenido acceso no autorizado y exportado un dataset con información de clientes.
OpenAI fue informada de la investigación y, el 25 de noviembre, Mixpanel le remitió el conjunto de datos afectados para su análisis. A partir de ahí, OpenAI revisó la información y comenzó el proceso de notificación a organizaciones, administradores y usuarios potencialmente impactados.
En paralelo, la compañía tomó una decisión contundente: retirar Mixpanel de sus servicios en producción y cortar la relación con este proveedor tras el incidente.
Qué datos se han visto expuestos (y cuáles no)
OpenAI detalla que la información potencialmente incluida en el dataset exportado por el atacante está relacionada con el uso del panel web de la API, no con el contenido de las peticiones ni con los modelos en sí. En concreto, la información afectada puede incluir:
- Nombre introducido en la cuenta de la API.
- Dirección de correo electrónico asociada a esa cuenta.
- Ubicación aproximada calculada por el navegador (ciudad, estado, país).
- Sistema operativo y navegador utilizados para acceder a la cuenta.
- Sitios web de referencia (referrers).
- Identificadores de organización o usuario vinculados a la cuenta de API.
En paralelo, OpenAI remarca que no se han visto afectados:
- Contenidos de chats o peticiones a la API.
- Historial de uso de la API (consultas o payloads).
- Contraseñas, claves de API u otras credenciales.
- Datos de pago: tarjetas, métodos de cobro, etc.
- Documentos de identidad u otros datos especialmente sensibles.
Es decir, la brecha se sitúa en el plano de la analítica y los metadatos de cuenta, no en el de los datos operativos que manejan los modelos.
Por qué este incidente importa al ecosistema de IA
Aunque los datos expuestos no son los más críticos desde el punto de vista técnico, sí tienen un valor claro para campañas de phishing y ataques de ingeniería social, especialmente en el contexto de empresas que consumen de forma intensiva la API de OpenAI.
Con esta información, un atacante puede:
- Dirigirse a personas concretas (con nombre y correo real) que sabe que usan la API.
- Referenciar su organización o uso del panel de OpenAI para dar más credibilidad al mensaje.
- Enviar correos falsos que simulen avisos de facturación, caducidad de clave o cambios de seguridad.
En un momento en el que muchas empresas están integrando modelos de lenguaje en productos, webs internas y flujos de negocio críticos, acceder a cuentas de API puede abrir la puerta a robo de datos, manipulación de respuestas o consumo masivo de crédito.
El incidente recuerda que, en el mundo de la IA, no solo hay que proteger el modelo y la infraestructura principal, sino también toda la constelación de servicios de soporte: analítica, facturación, soporte, monitorización, etc. Un eslabón débil en la cadena puede ser suficiente para construir un ataque creíble.
La respuesta de OpenAI: cortar con Mixpanel y reforzar a los proveedores
Tras analizar el dataset recibido, OpenAI afirma haber tomado varias medidas:
- Eliminación de Mixpanel de los servicios en producción, dejando de utilizarlo para analítica en platform.openai.com.
- Revisión detallada de los datos afectados para acotar el impacto.
- Monitorización adicional para detectar posibles usos indebidos de la información.
- Inicio de un proceso de revisión ampliada de la seguridad en todo su ecosistema de proveedores, con el compromiso de elevar los requisitos de seguridad para todos ellos.
La compañía insiste en que la transparencia forma parte de su política y que su objetivo es notificar a todos los clientes y usuarios afectados, incluso cuando el incidente se origine fuera de sus propios sistemas.
Más allá del caso concreto, el mensaje es claro: OpenAI quiere marcar distancias con cualquier proveedor que no cumpla el nivel de seguridad esperado, y usar este incidente como catalizador para endurecer controles en su cadena de terceros.
Qué deberían hacer ahora las empresas que usan la API de OpenAI
Aunque no es necesario cambiar claves de API ni contraseñas como consecuencia directa de este incidente, la recomendación de OpenAI es incrementar la vigilancia ante posibles intentos de phishing o fraudes dirigidos.
Algunas buenas prácticas que cobran especial relevancia tras lo ocurrido:
- Desconfiar de correos inesperados que se presenten en nombre de OpenAI, especialmente si incluyen enlaces para “verificar la cuenta”, “reactivar la API” o “actualizar el método de pago”.
- Comprobar que cualquier comunicación supuestamente oficial procede de dominios legítimos de la compañía.
- Recordar que OpenAI no pide nunca contraseñas, claves de API o códigos 2FA por correo electrónico, SMS o chats no autenticados.
- Habilitar y exigir autenticación multifactor (MFA) en todas las cuentas asociadas al uso de la API.
- Revisar internamente qué direcciones de correo, qué equipos y qué integraciones tienen acceso a la consola de plataforma y a las claves.
Para organizaciones con un uso intenso de la API, este incidente también es una oportunidad para auditar el propio ecosistema de herramientas conectadas: plugins, dashboards, soluciones de monitorización y analítica que, en muchos casos, también utilizan datos sobre el uso de los modelos o la facturación.
Un aviso para toda la industria de la IA
La brecha en Mixpanel no revela fallos directos de los modelos ni de la infraestructura principal de OpenAI, pero sí actúa como recordatorio de la superficie de ataque ampliada que lleva asociada la economía de la IA.
En los últimos años se ha extendido el uso de servicios de analítica, marketing y trazabilidad alrededor de productos SaaS y APIs. En el contexto de la inteligencia artificial, esos datos de contexto —quién usa qué, desde dónde, con qué frecuencia— pueden resultar especialmente interesantes para atacantes que buscan explotar:
- Accesos privilegiados a sistemas que usan modelos para procesar información sensible.
- Patrones de uso que revelan picos de actividad, nuevos proyectos o despliegues internos.
- Información organizativa para preparar campañas dirigidas a perfiles técnicos o decisores.
El incidente subraya la necesidad de que empresas y proveedores de IA apliquen principios de mínima información necesaria también a sus herramientas de analítica: menos datos recogidos, menos puntos de fuga potenciales.
Al mismo tiempo, demuestra que los grandes actores del sector —como OpenAI— se ven obligados a examinar con lupa a sus proveedores y a reaccionar con firmeza cuando un tercero sufre una brecha, incluso si el impacto directo parece limitado.
Preguntas frecuentes sobre el incidente de Mixpanel y OpenAI
¿Este incidente significa que han robado mis conversaciones o peticiones a la API?
No. Según la información comunicada, no se han visto comprometidos chats, peticiones a la API, contenidos procesados por los modelos ni métricas detalladas de uso. El incidente afecta a datos de analítica asociados al uso del panel web de la API (como nombre, email o dispositivo).
¿Debo cambiar mis claves de API o contraseña de OpenAI?
No hay evidencias de que claves de API, contraseñas o métodos de pago se hayan filtrado en este incidente. Aun así, como buena práctica general de seguridad, es recomendable revisar accesos, activar autenticación multifactor y rotar claves periódicamente, especialmente en entornos críticos.
¿Qué tipo de ataques pueden aprovechar esta filtración de datos?
El riesgo principal es el phishing dirigido: correos o mensajes que usan tu nombre, tu correo y referencias a tu uso de la API para parecer legítimos. Es fundamental revisar cuidadosamente remitentes y contenidos antes de hacer clic en enlaces o entregar información sensible.
¿Qué está haciendo OpenAI para evitar que esto vuelva a ocurrir?
OpenAI ha dejado de utilizar Mixpanel en producción, ha revisado el dataset afectado y está reforzando la seguridad de todo su ecosistema de proveedores. También está notificando de forma proactiva a clientes y usuarios afectados y monitorizando posibles usos indebidos de la información filtrada.
Fuente: Comunicado de OpenAI



