Menos del 9% de los españoles cree que existe una regulación estricta para la Inteligencia Artificial

El 2 de agosto marcará un hito en la regulación de la IA en España, y en toda la UE, ya que será cuando entre en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA). Esto significa que cualquier incumplimiento de las normas fijadas podrá ser objeto de importantes sanciones económicas. Las multas asociadas podrán alcanzar los 35 millones de euros, o el 7% de la facturación anual global de las empresas.

Sin embargo, esta nueva etapa normativa llega en un momento en el que la sociedad española muestra un claro escepticismo sobre la regulación existente y expresa una elevada preocupación por la privacidad de sus datos. Es más, según los últimos datos de la encuesta realizada sobre la percepción de la ciudadanía respecto a la IA de Entelgy, The Business Tech Consultancy, solo un 8,8% de los encuestados cree que existe actualmente una normativa lo suficientemente estricta para regular esta tecnología.

Pero esta sensación de desconfianza no se limita solo al ámbito normativo. Las autoridades encargadas de velar por la seguridad y el correcto desarrollo de la inteligencia artificial tampoco logran convencer a la ciudadanía. De hecho, el 88,6% de los encuestados considera que las instituciones no transmiten la seguridad necesaria respecto al control y supervisión de la IA, lo que refleja una brecha significativa entre las expectativas sociales y la acción institucional.

A ello se le suma un bajo nivel de conocimiento sobre la normativa vigente. Solo un 11,4% de los ciudadanos encuestados asegura estar al tanto de las regulaciones actuales en materia de inteligencia artificial. Este porcentaje es ligeramente mayor entre los jóvenes de 18 a 29 años, donde alcanza el 19,3%, aunque sigue siendo claramente insuficiente. Esta falta de información sobre el marco legal vigente evidencia la necesidad de impulsar campañas de sensibilización y educación que acerquen la normativa a la ciudadanía y refuercen la confianza en un desarrollo ético y seguro de la inteligencia artificial.

Además, a la falta de confianza se suma una preocupación generalizada por la privacidad. Ocho de cada diez ciudadanos aseguran estar inquietos ante la posibilidad de que un sistema de inteligencia artificial recopile información personal sin que existan suficientes garantías de protección. Esta inquietud es particularmente elevada entre las personas de entre 30 y 49 años (81,4%) y mayores de 50 años (81%).

Prácticas que serán sancionadas y cómo evitarlo

A partir del 2 de agosto, las prácticas que se sancionarán bajo el Reglamento Europeo de Inteligencia Artificial en España son aquellas consideradas de riesgo inaceptable para los derechos y libertades fundamentales de las personas tales como la manipulación subliminal o engañosa; la explotación de vulnerabilidades; social scoring; reconocimiento facial masivo; análisis de emociones en entornos laborales y educativos; categorización biométrica y la predicción delictiva.

Actualmente, si bien existen esfuerzos para cumplir con la transparencia, todavía hay bastante opacidad en torno a los datos con que se entrenan estos grandes modelos de IA. Para evitar sanciones, las empresas deberán asegurarse de que sus sistemas de inteligencia artificial cumplen con la normativa europea, garantizando la transparencia, la documentación técnica adecuada y la supervisión humana en los casos en que sea necesario. Además, tendrán que informar de manera clara a los usuarios cuando estén interactuando con una IA y colaborar activamente con la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). También será clave que revisen con rigor los modelos de propósito general que integren en sus servicios, incorporando salvaguardas para evitar riesgos legales.

Scroll al inicio