Seguridad

NIST/CAISI pone bajo lupa a DeepSeek: rinde menos que los modelos de EE. UU., cuesta más a igual desempeño y es mucho más vulnerable a ataques de seguridad

Un nuevo informe técnico del Center for AI Standards and Innovation (CAISI), integrado en el NIST de EE. UU., evalúa los modelos de DeepSeek (V3.1, R1-0528 y R1) frente a referencias estadounidenses (GPT-5, GPT-5-mini, gpt-oss y Opus 4) en 19 pruebas de ciberseguridad, ingeniería de software, ciencia, conocimiento general, matemáticas, coste y seguridad. Conclusión: los modelos de DeepSeek quedan por

Elena Digital López

IA maliciosa y desinformación: la respuesta del CCN-CERT y la comparación con Europa

La inteligencia artificial (IA) ha transformado la forma en que nos comunicamos, trabajamos y protegemos nuestras infraestructuras. Pero al mismo tiempo, también ha abierto la puerta a un nuevo tipo de ciberamenazas: ataques potenciados por IA capaces de generar campañas de phishing hiperrealistas, malware que se adapta en tiempo real y deepfakes indistinguibles de la realidad. En este escenario, España

Grok y la filtración que destapa sus polémicas personalidades conspiranoicas y extremas

La compañía de Elon Musk, xAI, vuelve a situarse en el centro de la polémica tras descubrirse que su chatbot Grok expuso accidentalmente en su propia web interna una serie de instrucciones confidenciales —los llamados system prompts— que describen cómo debía actuar bajo diferentes personalidades. Entre ellas, destacan dos perfiles especialmente controvertidos: un “conspiranoico loco” inspirado en foros como 4chan

Los modelos de IA siguen cayendo en trampas de phishing: el lado oscuro de los LLMs en la navegación web

Un informe de Netcraft revela que un 34 % de las URLs sugeridas por modelos de lenguaje como GPT-4 al buscar sitios oficiales de marcas son incorrectas o directamente peligrosas. La inteligencia artificial, en lugar de protegernos, podría estar exponiéndonos a nuevos riesgos. La inteligencia artificial generativa está transformando la forma en que buscamos y accedemos a la información. Desde motores

Ceder tus fotos a la IA: los peligros invisibles y desconocidos

Redes sociales y compañías desarrolladoras de inteligencia artificial se reservan el derecho de utilizar las imágenes subidas por los usuarios para entrenar a sus modelos El problema invisible: cuando nuestras fotos alimentan a las máquinas Uno de los grandes misterios del mundo digital es si realmente existe alguien que se haya leído de manera sistemática los términos y condiciones de

La nueva cara del fraude: cómo el vishing y la clonación de voz con inteligencia artificial están cambiando el crimen digital

Los estafadores ya no necesitan contraseñas ni malware: con unos segundos de tu voz, pueden suplantarte. El auge del vishing con IA plantea un reto urgente para gobiernos, empresas y ciudadanos. En la era digital, las amenazas evolucionan al mismo ritmo que la tecnología. Uno de los peligros más inquietantes que ha emergido recientemente es el vishing con inteligencia artificial,

ChatGPT y la confidencialidad: ¿Qué tan segura está tu información?

Aunque las herramientas de inteligencia artificial como ChatGPT ofrecen enormes beneficios en productividad y automatización, su uso plantea serias dudas sobre la privacidad de los datos. En la carrera por adoptar la inteligencia artificial (IA), muchas empresas están incorporando chatbots como ChatGPT para mejorar procesos, reducir costes y acelerar tareas. Sin embargo, ¿hasta qué punto es seguro compartir información en

Ciberataques a modelos de IA: nuevas amenazas para una tecnología en expansión

La inteligencia artificial (IA) se ha convertido en un motor de transformación para sectores como la salud, la industria, el transporte o la educación. Sin embargo, su creciente presencia en procesos críticos la convierte también en un objetivo prioritario para cibercriminales. Así lo advierten diversos informes de ciberseguridad que revelan un aumento sostenido de ataques dirigidos a modelos de IA,

Scroll al inicio