Check Point Software Technologies y Microsoft han anunciado una colaboración estratégica para llevar controles de seguridad de nivel empresarial a Microsoft Copilot Studio, la plataforma con la que las organizaciones construyen y despliegan sus propios agentes de IA generativa. El objetivo es claro: que las empresas puedan aprovechar el potencial de estos copilotos sin perder de vista algo tan básico como la protección de datos, el cumplimiento normativo y el control de lo que realmente hace cada agente dentro de la organización.
En un momento en el que los agentes de IA pasan de ser experimentos en laboratorio a integrarse en flujos de trabajo reales —desde atención al cliente hasta automatización de procesos internos—, la pregunta ya no es solo “qué pueden hacer”, sino “hasta dónde es seguro dejarles actuar”.
Copilot Studio: poderosos, conectados… y con una nueva superficie de ataque
Microsoft Copilot Studio permite a las empresas crear agentes de IA personalizados que se conectan a datos internos, aplicaciones corporativas y herramientas de terceros. Esos agentes no solo responden a preguntas: pueden ejecutar acciones, lanzar flujos, consultar bases de datos o tocar sistemas críticos.
Cada nueva integración, sin embargo, abre una puerta potencial a incidentes de seguridad:
- Inyección de prompts (prompt injection): instrucciones maliciosas escondidas en documentos, webs o datos que hacen que el agente ignore las políticas de la empresa.
- Fuga de datos: respuestas que exponen información sensible que nunca debería salir del perímetro corporativo.
- Uso indebido del modelo: agentes que terminan ejecutando acciones para las que no fueron diseñados, o explotando integraciones con sistemas internos sin suficientes controles.
La propia Microsoft viene reforzando el marco de seguridad y cumplimiento en Copilot Studio, pero el auge de estos agentes ha llevado a muchos CISOs a plantearse cómo aplicar una capa adicional de gobernanza y prevención en tiempo real.
Qué aporta Check Point: guardarraíles de IA en tiempo de ejecución
La integración anunciada lleva la seguridad de Check Point directamente al runtime de Copilot Studio. No se trata solo de escanear código o revisar configuraciones, sino de supervisar y proteger cada interacción que realiza un agente de IA cuando está en producción.
Entre las capacidades clave destacan:
1. AI Guardrails en tiempo real
Check Point incorpora sus AI Guardrails directamente en los agentes construidos con Copilot Studio. Esto permite:
- Bloquear intentos de prompt injection antes de que el agente actúe sobre ellos.
- Filtrar y controlar el contexto que llega al modelo para evitar que “vea” más de lo necesario.
- Detectar usos anómalos del agente o desviaciones respecto a las políticas de la organización.
En la práctica, es como instalar un cortafuegos especializado entre el agente de IA y todo lo que este puede ver, hacer o devolver.
2. Prevención de fuga de datos y amenazas (DLP + Threat Prevention)
La colaboración extiende al mundo de la IA tecnologías ya conocidas en ciberseguridad empresarial:
- DLP (Data Loss Prevention) para evitar que datos sensibles —como información personal, financiera o secretos corporativos— salgan en las respuestas del agente o se compartan con herramientas externas.
- Threat Prevention para inspeccionar el tráfico asociado a los agentes, detectar patrones maliciosos y bloquear comportamientos sospechosos durante la ejecución de flujos y llamadas a herramientas.
Todo ello se aplica a nivel de runtime, es decir, mientras el agente está “trabajando” para el usuario.
3. Escalabilidad empresarial sin penalizar el rendimiento
La solución se ha diseñado pensando en grandes despliegues: organizaciones con decenas o cientos de agentes conectados a múltiples fuentes de datos y aplicaciones. Según Check Point, el enfoque está orientado a mantener baja latencia y protección uniforme, evitando que la capa de seguridad se convierta en un cuello de botella.
En otras palabras, la idea es que el equipo de seguridad gane visibilidad y control sin que los equipos de negocio sientan que la IA “se vuelve lenta” o deja de ser útil.
Seguridad “by design” para la nueva ola de agentes de IA
Microsoft subraya que las empresas que usan Copilot Studio quieren construir agentes muy alineados con sus procesos internos, pero sin descuidar seguridad y cumplimiento. La colaboración con Check Point busca precisamente eso: combinar la plataforma Copilot con un enfoque de prevención-first para todo el ciclo de vida de los agentes.
Para las organizaciones, esto se traduce en varios beneficios prácticos:
- Visibilidad unificada: qué agentes existen, a qué datos acceden, cómo se comportan y qué riesgos generan.
- Políticas consistentes: aplicar las mismas reglas de protección de datos y prevención de amenazas tanto en aplicaciones tradicionales como en agentes de IA.
- Gobernanza continua: no solo validar el agente al crearlo, sino monitorizar su actividad día a día y corregir desvíos.
- Confianza interna: facilitar que departamentos de negocio, TI y seguridad hablen el mismo idioma cuando se trata de lanzar nuevos copilotos.
Esto encaja con la estrategia más amplia de Check Point, que posiciona su Infinity Platform como una forma de unificar la protección de entornos on-premise, cloud y workspace bajo un mismo paraguas de seguridad impulsada por IA, ahora también aplicada a agentes generativos y flujos de Copilot.
De experimentar con IA a ponerla en el corazón del negocio
En muchas empresas, los primeros proyectos con IA generativa fueron pilotos aislados, con poco acceso a datos reales y riesgos acotados. Pero 2025 está siendo el año en que los agentes de IA empiezan a tocar procesos críticos: atención al cliente, soporte interno, automatización de tareas administrativas, análisis de documentos sensibles o integración con sistemas ERP y CRM.
Ese salto obliga a un cambio de mentalidad:
- De “jugar con un chat” a diseñar productos internos basados en IA.
- De dejar que cada equipo pruebe herramientas públicas a centralizar el uso de modelos y agentes bajo un marco de gobierno corporativo.
- De ver la IA como un experimento de innovación a tratarla como parte del perímetro de seguridad.
La colaboración entre Check Point y Microsoft se mueve justamente en esta dirección: ofrecer a los CIO, CISO y responsables de datos una forma de decir “sí” a los proyectos de Copilot Studio, pero con un conjunto claro de condiciones de seguridad y control.
Qué deberían plantearse ahora los equipos de seguridad
Más allá del anuncio, la realidad es que cada organización tendrá que decidir cómo integrar este tipo de soluciones en su arquitectura. Algunas preguntas clave que los equipos de seguridad y TI ya se están haciendo son:
- ¿Qué agentes de IA están en producción, qué datos tocan y qué acciones pueden ejecutar?
- ¿Existe un marco único de políticas para IA, o cada proyecto se gestiona de forma aislada?
- ¿Cómo se monitoriza la actividad de los agentes? ¿Se registra quién pregunta qué, y qué hace el agente después?
- ¿Se están aplicando controles de DLP, prevención de amenazas y segmentación también a las integraciones de IA?
La respuesta a muchas de estas preguntas pasa por herramientas como las que ahora se integran en Copilot Studio. Una cosa está clara: a medida que los agentes de IA ganen poder dentro de las empresas, será cada vez menos aceptable desplegarlos sin guardarraíles.
Preguntas frecuentes sobre la alianza Check Point – Microsoft Copilot Studio
¿Qué gana una empresa al combinar Microsoft Copilot Studio con la seguridad de Check Point?
Obtiene una capa adicional de protección en tiempo real sobre sus agentes de IA: prevención de inyección de prompts, control de fuga de datos, inspección de amenazas y gobernanza continua de lo que hacen los agentes cuando acceden a aplicaciones y fuentes de datos corporativas.
¿Qué tipo de riesgos específicos ayuda a mitigar esta integración en Copilot Studio?
Principalmente tres: instrucciones maliciosas que intentan manipular al agente (prompt injection), exposición accidental de información sensible en las respuestas o en las integraciones, y uso indebido del modelo para ejecutar acciones no previstas o contrarias a las políticas internas de la organización.
¿Es una solución pensada solo para grandes empresas o también aplicable a medianas organizaciones?
Aunque está diseñada para despliegues a gran escala, con muchos agentes y múltiples integraciones, los mismos principios de seguridad —guardarraíles de IA, DLP, prevención de amenazas y visibilidad centralizada— resultan igual de relevantes para organizaciones medianas que empiezan a usar Copilot Studio en procesos de negocio críticos.
¿Qué pasos puede dar un CIO o CISO para securizar sus agentes de IA generativa en Copilot Studio?
Como mínimo, debería inventariar los agentes existentes, revisar los datos y sistemas a los que se conectan, definir políticas claras de uso y acceso, integrar controles de seguridad en tiempo de ejecución (como los de Check Point) y establecer un sistema de monitorización y auditoría continua de la actividad de esos agentes.
vía: checkpoint






