El 2 de agosto entra en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial, con multas de hasta 35 millones de euros. A pesar del avance normativo, más del 88 % de los españoles desconfía del control institucional sobre estas tecnologías.
Con la entrada en vigor del régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), España y el resto de países de la Unión Europea dan un paso firme hacia la supervisión estricta del desarrollo y uso de la IA. A partir del 2 de agosto de 2025, el incumplimiento de las normas establecidas podrá acarrear multas de hasta 35 millones de euros o el 7 % de la facturación anual global de la empresa infractora.
Pero este avance legislativo llega en un momento en el que la sociedad española aún muestra un elevado escepticismo sobre la regulación existente, según revela un reciente estudio de la consultora tecnológica Entelgy. Solo un 8,8 % de los encuestados cree que existe una normativa lo suficientemente estricta para regular la inteligencia artificial.
Brecha entre ciudadanía e instituciones
El dato más preocupante del estudio no es solo el bajo nivel de confianza en la normativa, sino la percepción de que las instituciones no están preparadas para garantizar un uso ético y seguro de la IA. Un 88,6 % de los ciudadanos considera que las autoridades no transmiten la seguridad necesaria en cuanto a supervisión, control y protección de los derechos fundamentales.
A esta desconfianza se suma un conocimiento limitado del marco legal. Apenas un 11,4 % de los encuestados afirma conocer la normativa vigente, porcentaje que apenas sube al 19,3 % entre los jóvenes de 18 a 29 años. Esta situación pone en evidencia la urgencia de campañas de formación, concienciación y acceso a información clara, tal como destacan desde Entelgy.
Privacidad y vigilancia: las principales inquietudes
El estudio también refleja una profunda preocupación por la privacidad de los datos personales. Ocho de cada diez ciudadanos temen que los sistemas de IA puedan recopilar información sin su consentimiento ni garantías suficientes de protección. Este temor alcanza un pico del 81,4 % entre las personas de 30 a 49 años y 81 % en mayores de 50 años.
Las inquietudes se centran especialmente en el uso indiscriminado de técnicas como el reconocimiento facial masivo, el análisis emocional en entornos laborales y educativos o la categorización biométrica, todas prácticas que el nuevo reglamento clasifica como de riesgo inaceptable.
Qué prácticas sancionará la UE a partir del 2 de agosto
Con el inicio del régimen sancionador, la Unión Europea penalizará con dureza el uso de sistemas de inteligencia artificial que vulneren los derechos fundamentales. Las prácticas que estarán explícitamente prohibidas incluyen:
- Manipulación subliminal o engañosa.
- Explotación de vulnerabilidades.
- Sistemas de puntuación social (social scoring).
- Reconocimiento facial masivo sin justificación legal.
- Análisis emocional en el entorno laboral o educativo.
- Predicción de delitos basada en perfiles conductuales.
- Categorización biométrica masiva.
Las empresas deberán garantizar la transparencia de sus modelos de IA, proporcionar documentación técnica completa, asegurar la supervisión humana donde sea necesario, e informar claramente a los usuarios cuando estén interactuando con un sistema automatizado.
¿Están preparadas las empresas?
Actualmente, muchas empresas aún no han adaptado sus sistemas de IA al marco europeo. El reglamento exige también revisar con detalle los modelos de propósito general (como los grandes modelos fundacionales tipo GPT), asegurando que no incurren en riesgos legales o éticos.
“La entrada en vigor del régimen sancionador representa un paso clave hacia un desarrollo responsable de la inteligencia artificial, pero la falta de conocimiento por parte de los ciudadanos debilita la confianza y exige un mayor esfuerzo en transparencia y formación”, indican desde Entelgy.
Recomendaciones clave para empresas y usuarios
Para empresas:
- Asegurar la transparencia de los sistemas de IA.
- Implementar supervisión humana en decisiones sensibles.
- Informar de forma clara al usuario.
- Colaborar con la Agencia Española de Supervisión de la IA (AESIA).
- Evaluar y mitigar riesgos legales de modelos de IA integrados en sus servicios.
Para ciudadanos:
- Estar informados sobre los derechos ante el uso de IA.
- Exigir claridad sobre si se está interactuando con un sistema automatizado.
- Participar en procesos de formación y sensibilización tecnológica.
¿Y ahora qué?
La entrada en vigor del régimen sancionador del RIA sitúa a Europa a la vanguardia de la regulación tecnológica, pero el reto ahora es acercar esa normativa al conjunto de la sociedad. La IA ya está presente en servicios bancarios, sanitarios, educativos o laborales. Que los ciudadanos conozcan sus derechos y los límites legales de la tecnología es tan importante como el propio reglamento.
El camino hacia una inteligencia artificial segura y ética no depende solo de la ley, sino también de una cultura digital crítica, informada y participativa.
vía: entelgy