La adopción masiva de la inteligencia artificial generativa en las empresas ha traído consigo enormes beneficios en productividad, pero también nuevos riesgos en materia de seguridad y cumplimiento normativo. Consciente de este desafío, Cloudflare ha anunciado la incorporación de capacidades específicas para ChatGPT (OpenAI), Claude (Anthropic) y Gemini (Google) dentro de su Cloud Access Security Broker (CASB), integrado en la plataforma Cloudflare One.
La medida permitirá a las organizaciones analizar y controlar el uso de estas herramientas en sus equipos, detectar fugas de datos, gestionar accesos indebidos y aplicar políticas de seguridad en tiempo real, sin necesidad de instalar software adicional en los dispositivos de los empleados.
Por qué era necesario un control más riguroso
El entusiasmo por la IA generativa ha provocado que trabajadores de todos los departamentos —desde finanzas hasta ingeniería— incorporen estas aplicaciones en su día a día. Pero este uso creciente a menudo se da sin la supervisión de los equipos de seguridad, con riesgos que van desde compartir información sensible en prompts hasta la creación de integraciones inseguras.
Cloudflare ha querido responder a este contexto con un enfoque doble:
- CASB API-based: conexiones sin agentes, que ofrecen visibilidad sobre datos en reposo y configuraciones de seguridad en cada plataforma de IA.
- Gateway con controles en línea: inspección del tráfico hacia estas aplicaciones, detección de Shadow AI (uso no autorizado de IA) y aplicación de reglas de prevención de fuga de datos (DLP).
Qué aporta Cloudflare CASB en cada integración
🔹 ChatGPT (OpenAI)
- Detecta capabilities activadas, como acciones, acceso web o ejecución de código.
- Identifica chats y GPTs compartidos públicamente o en el GPT Store, vinculándolos a sus propietarios.
- Localiza API keys obsoletas o sin rotación y accesos sobreprivilegiados.
- Aplica perfiles DLP para encontrar datos sensibles como credenciales, información financiera o código fuente en archivos adjuntos.
🔹 Claude (Anthropic)
- Supervisa claves e invitaciones en riesgo, detectando “drift” en permisos antes de que se conviertan en puertas traseras.
- Escanea ficheros subidos para localizar datos sensibles y asegurar su cumplimiento normativo.
- La integración irá creciendo a medida que Anthropic amplíe la API de Claude.
🔹 Gemini (Google)
- Revisa la seguridad de identidades y la activación de MFA (multi-factor authentication) en usuarios y administradores.
- Señala cuentas suspendidas que aún retienen licencias de Gemini Enterprise o AI Ultra, reduciendo riesgos y costes.
- Ofrece control sobre licencias avanzadas que incluyen funciones críticas como Project Mariner, un prototipo de agente autónomo capaz de ejecutar múltiples tareas simultáneas en navegadores.
Más allá del control en línea
Cloudflare destaca que los controles tradicionales en el perímetro ya no son suficientes. Las integraciones CASB de nueva generación permiten ver más allá de lo que pasa en la red:
- Configuración de cuentas.
- Gestión de permisos y licencias.
- Detección de uso indebido de datos en los propios entornos de IA.
De esta forma, los equipos de TI y seguridad no solo bloquean accesos inseguros, sino que también pueden auditar y corregir malas prácticas antes de que se conviertan en una brecha de seguridad.
El futuro de la seguridad en la IA generativa
Para Cloudflare, estas novedades son apenas el inicio. La compañía espera que los propios proveedores de GenAI avancen hacia una mayor transparencia y controles de seguridad más robustos en sus APIs. Mientras tanto, el enfoque de Cloudflare busca ofrecer a las empresas la tranquilidad de poder innovar con IA sin comprometer la confidencialidad de sus datos.
En palabras de la compañía: “Con postura, acceso y datos bajo control, las organizaciones pueden adoptar la IA generativa de forma segura y confiada”.
Preguntas frecuentes (FAQ)
1. ¿Qué es exactamente un CASB y por qué es importante para la IA?
Un Cloud Access Security Broker (CASB) es una herramienta que actúa como mediador entre los usuarios y las aplicaciones en la nube, ofreciendo visibilidad, control de accesos y protección de datos. En el contexto de la IA generativa, permite detectar configuraciones inseguras, prevenir filtraciones de datos y garantizar el cumplimiento normativo.
2. ¿Qué diferencia hay entre Shadow AI y la IA corporativa aprobada?
El término Shadow AI se refiere al uso no autorizado de herramientas de IA por parte de los empleados, sin conocimiento del área de seguridad. Esto implica riesgos de fuga de datos y de incumplimiento regulatorio. La IA corporativa aprobada, en cambio, está gestionada bajo políticas claras y mecanismos de protección.
3. ¿Qué tipo de datos sensibles puede detectar Cloudflare en los prompts o archivos adjuntos?
Cloudflare CASB cuenta con perfiles de DLP capaces de identificar credenciales, claves API, información financiera, datos médicos y código fuente. Estos controles permiten alertar, bloquear o advertir al empleado en tiempo real, evitando que la información sensible salga de la organización.
4. ¿Cómo se diferencia la integración de Gemini respecto a ChatGPT o Claude?
Mientras que en ChatGPT y Claude se puede auditar la configuración de uso y el contenido compartido, en Gemini —al estar integrado en Google Workspace— la prioridad está en la gestión de identidades, MFA y licencias. Por eso Cloudflare se centra en la higiene de cuentas y permisos, más que en la exposición pública de contenido.
vía: blog.cloudflare.com