Expertos advierten sobre los riesgos de ceder datos personales, médicos o financieros a los asistentes de inteligencia artificial
La inteligencia artificial se ha instalado de forma permanente en la vida cotidiana. Desde asistentes como ChatGPT hasta la reciente incorporación de Meta AI en WhatsApp, el uso de sistemas automatizados para resolver tareas, redactar textos o interpretar datos médicos se ha normalizado. Pero con esta expansión surgen nuevos riesgos para la privacidad.
Los expertos en ciberseguridad coinciden en que, a pesar de la utilidad de estas herramientas, existen límites claros sobre qué información no debe compartirse con un chatbot o con cualquier plataforma basada en IA. Y no se trata únicamente de precauciones técnicas, sino de evitar exponer datos personales que podrían ser reutilizados, almacenados o incluso filtrados involuntariamente.
Los riesgos de “alimentar” a la IA
Uno de los mayores malentendidos entre los usuarios es asumir que las conversaciones con sistemas de inteligencia artificial son privadas. Sin embargo, tanto OpenAI como otras compañías tecnológicas reconocen que utilizan los diálogos con usuarios para seguir entrenando sus modelos. Aunque es posible desactivar esta función en algunos casos, la realidad es que muchas personas no lo hacen o desconocen su existencia.
Un ejemplo revelador ocurrió con las aplicaciones que ofrecían transformar fotografías en dibujos de estilo anime. Millones de usuarios subieron imágenes personales sin reparar en que, al hacerlo, alimentaban los modelos de IA con datos biométricos de gran valor. Es decir, entregaban voluntariamente material que podría emplearse para entrenar sistemas de reconocimiento facial o generar imágenes sintéticas sin control.
En palabras de James Cox, vicepresidente de Network Optix, «se puede buscar datos durante todo un año en cuestión de segundos» gracias al procesamiento en el Edge con IA. Pero la misma lógica que permite analizar imágenes de videovigilancia también puede aplicarse a datos personales si no se establecen límites claros.
Cinco tipos de datos que nunca debes compartir
De acuerdo con las advertencias recopiladas por expertos y organismos especializados, existen al menos cinco categorías de información que no deberían compartirse con sistemas de IA, incluyendo aquellos integrados en plataformas de mensajería como WhatsApp:
- Datos identificativos: Incluye DNI, pasaporte, dirección postal, número de teléfono o fecha de nacimiento. Aunque algunas IAs intentan censurarlos, no hay garantía de que no sean almacenados o reutilizados.
- Resultados médicos: Subir informes o diagnósticos puede ser riesgoso si contienen datos identificativos. Los modelos de IA no están sujetos a leyes de protección de datos sanitarios como el Reglamento General de Protección de Datos (RGPD) o HIPAA en EE. UU.
- Información financiera: Números de cuenta, claves de banca online o datos de inversión nunca deberían ser introducidos en una conversación con una IA.
- Información empresarial confidencial: Desde códigos fuente hasta correos electrónicos estratégicos. Muchos usuarios usan IA para revisar trabajo profesional sin advertir que están compartiendo contenido sensible con un sistema que podría almacenarlo.
- Contraseñas y nombres de usuario: Aunque parezca obvio, es importante recordar que los chatbots no están diseñados como espacios seguros para guardar este tipo de información.
WhatsApp y el doble riesgo
La llegada de Meta AI a WhatsApp añade una capa adicional de preocupación. Aunque la conversación parezca informal o entre personas de confianza, el uso de la IA para repasar o responder mensajes puede implicar el análisis automático de textos por parte de algoritmos. Si se introduce un número de documento, una contraseña o un dato médico mientras se usa la función de IA, esa información podría ser procesada por el sistema de Meta, con implicaciones difíciles de prever.
Cómo proteger tu privacidad
Las recomendaciones son claras. En primer lugar, no subas nunca imágenes biométricas (rostro, iris, manos) a herramientas de IA que no estén específicamente diseñadas para manejar este tipo de información bajo regulaciones estrictas.
Además, es preferible utilizar funciones como el «modo temporal» o «chat sin historial», si la plataforma lo permite. También se recomienda borrar el historial de conversaciones con regularidad y evitar introducir datos sensibles en cualquier consulta.
Herramientas como Duck.ai, que ofrecen una capa de anonimización al interactuar con modelos de lenguaje, pueden ser útiles, aunque limitadas frente a soluciones más populares.
Conclusión: la privacidad depende del usuario
La inteligencia artificial seguirá evolucionando, y con ella, los riesgos asociados al uso masivo de datos. Por ahora, la mayor protección es el sentido común. Recordar que todo lo que se dice a una IA podría formar parte de su memoria futura es el primer paso para evitar filtraciones, malentendidos o incluso ciberataques. Como coinciden los expertos, la IA aprende de lo que le damos, y por tanto, cuanto menos se le dé, más control conservaremos sobre nuestra privacidad.