Seguridad

Microsoft reconoce un fallo en Copilot: la Inteligencia Artificial resumió correos “confidenciales” saltándose políticas DLP

La adopción de asistentes de Inteligencia Artificial en el puesto de trabajo está avanzando a un ritmo vertiginoso, especialmente en suites ofimáticas donde el correo electrónico sigue siendo el centro de gravedad de la empresa. En ese contexto, Microsoft ha confirmado un incidente incómodo para cualquier responsable de seguridad: un bug en Microsoft 365 Copilot provocó que el asistente resumiera

Sam Altman enfría el fenómeno Moltbook tras una filtración: “puede ser una moda”, pero los agentes no

La fiebre por Moltbook, una red social “tipo Reddit” diseñada para que agentes de Inteligencia Artificial publiquen, comenten y se organicen sin intervención directa de humanos, ha pasado en cuestión de días del asombro colectivo a la alarma. La razón no es filosófica ni futurista, sino de las de siempre: seguridad básica. Una vulnerabilidad permitió exponer información sensible y reabrió

Proofpoint alerta de nuevos riesgos de ciberseguridad con los grandes modelos de lenguaje

La forma en que las personas trabajan, se comunican e innovan ha cambiado con la irrupción de los grandes modelos de lenguaje, conocidos como LLM. Esta tecnología de Inteligencia Artificial, presente en herramientas como ChatGPT o Gemini, está acelerando flujos de trabajo y aportando nuevas capacidades para acceder a conocimiento y automatizar tareas. Sin embargo, su adopción también está abriendo

“GeminiJack”: la vulnerabilidad cero-click que convierte al asistente de IA en un espía dentro de Google Workspace

Una nueva vulnerabilidad en los servicios de inteligencia artificial de Google ha encendido todas las alarmas en el ecosistema de IA empresarial. El fallo, bautizado como “GeminiJack”, permitía a un atacante acceder sin clicks ni interacción del usuario a información sensible almacenada en Gmail, Calendar y Docs de organizaciones que utilizan Google Gemini Enterprise (y previamente Vertex AI Search) como

Ataques a la IA que ya están aquí: Prompt Injection y Data Poisoning (y el plan realista para frenarlos)

La inteligencia artificial ha dejado de ser un experimento para convertirse en la capa operativa de miles de productos. Esa madurez trae un reverso: se ha vuelto superficie de ataque. Distintos estudios recientes sitúan a la IA en el centro del toolkit del adversario: más automatización, campañas de phishing hiperpersonalizadas y una presión creciente sobre la última línea de defensa,

Así usan llamadas falsas para clonar tu voz con IA y robar tu identidad: del “hola, ¿me oyes?” al “autoriza esta transferencia”

Durante años, los deepfakes fueron casi una curiosidad: vídeos con rostros desalineados, labios que no encajaban y voces robóticas. En 2025 el cuadro ha cambiado. La inteligencia artificial ha convertido las falsificaciones de audio en algo verosímil, rápido y barato, hasta el punto de que ya es posible suplantar tu voz en tiempo real durante una llamada. Ese salto abre

Sistemas operativos agénticos: ¿comodidad o cesión de control? El futuro que se cocina entre Microsoft, Apple y Google

La palabra de moda en Silicon Valley no es “aplicación”, sino “agente”. El sector prepara una nueva capa por encima del sistema operativo clásico —Windows, macOS, Android— que promete entender objetivos, orquestar pasos, abrir y cerrar apps, escribir correos, comprar billetes, editar documentos y hablar con otros servicios sin que el usuario tenga que pensar en cada clic. Son los

NIST/CAISI pone bajo lupa a DeepSeek: rinde menos que los modelos de EE. UU., cuesta más a igual desempeño y es mucho más vulnerable a ataques de seguridad

Un nuevo informe técnico del Center for AI Standards and Innovation (CAISI), integrado en el NIST de EE. UU., evalúa los modelos de DeepSeek (V3.1, R1-0528 y R1) frente a referencias estadounidenses (GPT-5, GPT-5-mini, gpt-oss y Opus 4) en 19 pruebas de ciberseguridad, ingeniería de software, ciencia, conocimiento general, matemáticas, coste y seguridad. Conclusión: los modelos de DeepSeek quedan por

Elena Digital López

IA maliciosa y desinformación: la respuesta del CCN-CERT y la comparación con Europa

La inteligencia artificial (IA) ha transformado la forma en que nos comunicamos, trabajamos y protegemos nuestras infraestructuras. Pero al mismo tiempo, también ha abierto la puerta a un nuevo tipo de ciberamenazas: ataques potenciados por IA capaces de generar campañas de phishing hiperrealistas, malware que se adapta en tiempo real y deepfakes indistinguibles de la realidad. En este escenario, España

Scroll al inicio