Seguridad

La nueva IA ya actúa sola: modelos, agentes y el reto de la privacidad

La Inteligencia Artificial ha dejado de ser una simple caja de texto que responde preguntas. En apenas dos años, el mercado ha pasado de competir por el chatbot más llamativo a librar una carrera mucho más ambiciosa: integrar modelos avanzados en navegadores, sistemas operativos, suites ofimáticas, herramientas de programación y todo tipo de servicios conectados. OpenAI acaba de lanzar GPT-5.4

Del “sí” táctico al veto político: la guerra entre Washington y Anthropic pone a prueba quién manda sobre los límites de la Inteligencia Artificial

En Silicon Valley se habla mucho de disrupción, pero pocas veces se ve una tan cruda como la que enfrenta estos días a Anthropic —la empresa detrás de Claude— con el Gobierno de Estados Unidos. La secuencia es tan rápida como incómoda: tras meses de negociación, la Administración de Donald Trump ha ordenado a agencias federales cesar el uso de

EE UU pone a Anthropic en el punto de mira: el Pentágono la declara “riesgo para la cadena de suministro” tras negarse a levantar límites de su IA

La tensión entre el Gobierno de Estados Unidos y una de las empresas más influyentes del sector de la Inteligencia Artificial ha estallado en público y con consecuencias inéditas. El Pentágono ha decidido designar a Anthropic como “riesgo para la cadena de suministro”, una etiqueta que, por su dureza, suele asociarse a proveedores considerados problemáticos para la seguridad nacional y

Anthropic abre una nueva puerta en ciberseguridad: Claude Code Security llega a los defensores con revisión humana

La carrera por aplicar la Inteligencia Artificial a la ciberseguridad acaba de sumar un nuevo capítulo. Anthropic ha presentado Claude Code Security, una capacidad integrada en Claude Code (en la web) diseñada para analizar repositorios de código, detectar vulnerabilidades y proponer parches concretos para que un equipo humano los revise antes de aplicar cualquier cambio. La compañía lo describe como

Microsoft reconoce un fallo en Copilot: la Inteligencia Artificial resumió correos “confidenciales” saltándose políticas DLP

La adopción de asistentes de Inteligencia Artificial en el puesto de trabajo está avanzando a un ritmo vertiginoso, especialmente en suites ofimáticas donde el correo electrónico sigue siendo el centro de gravedad de la empresa. En ese contexto, Microsoft ha confirmado un incidente incómodo para cualquier responsable de seguridad: un bug en Microsoft 365 Copilot provocó que el asistente resumiera

Sam Altman enfría el fenómeno Moltbook tras una filtración: “puede ser una moda”, pero los agentes no

La fiebre por Moltbook, una red social “tipo Reddit” diseñada para que agentes de Inteligencia Artificial publiquen, comenten y se organicen sin intervención directa de humanos, ha pasado en cuestión de días del asombro colectivo a la alarma. La razón no es filosófica ni futurista, sino de las de siempre: seguridad básica. Una vulnerabilidad permitió exponer información sensible y reabrió

Proofpoint alerta de nuevos riesgos de ciberseguridad con los grandes modelos de lenguaje

La forma en que las personas trabajan, se comunican e innovan ha cambiado con la irrupción de los grandes modelos de lenguaje, conocidos como LLM. Esta tecnología de Inteligencia Artificial, presente en herramientas como ChatGPT o Gemini, está acelerando flujos de trabajo y aportando nuevas capacidades para acceder a conocimiento y automatizar tareas. Sin embargo, su adopción también está abriendo

“GeminiJack”: la vulnerabilidad cero-click que convierte al asistente de IA en un espía dentro de Google Workspace

Una nueva vulnerabilidad en los servicios de inteligencia artificial de Google ha encendido todas las alarmas en el ecosistema de IA empresarial. El fallo, bautizado como “GeminiJack”, permitía a un atacante acceder sin clicks ni interacción del usuario a información sensible almacenada en Gmail, Calendar y Docs de organizaciones que utilizan Google Gemini Enterprise (y previamente Vertex AI Search) como

Scroll al inicio