El pasado 1 de agosto entró en vigor el Reglamento de Inteligencia Artificial (IA) de la Unión Europea, una normativa diseñada para regular la introducción, puesta en servicio y uso de sistemas de IA en el mercado europeo. Este reglamento tiene como objetivo principal fomentar el desarrollo y uso seguro de la IA en la UE, garantizando al mismo tiempo un alto nivel de protección para la salud, la seguridad y los derechos fundamentales.
A pesar de la relevancia de esta normativa, el conocimiento sobre su impacto entre los ciudadanos es limitado. Según una encuesta realizada por Entelgy, The Business Tech Consultancy, un 51% de los españoles está al tanto de la existencia de esta regulación, pero solo un 7,3% comprende cómo afecta realmente a sus vidas y actividades.
En los últimos años, la inteligencia artificial ha avanzado de manera significativa, transformando diversos aspectos de la sociedad y abriendo nuevas oportunidades para empresas y ciudadanos. Sin embargo, estos avances también han planteado serias preocupaciones en torno a la privacidad, seguridad y ética. La falta de supervisión en la proliferación de aplicaciones de IA ha revelado vulnerabilidades como el sesgo algorítmico, la discriminación y la falta de transparencia.
La encuesta de Entelgy también muestra que el 93,1% de los españoles considera imprescindible contar con una regulación que guíe el uso de la IA tanto para empresas como para particulares.
Ante este panorama, Entelgy destaca los aspectos clave de la nueva normativa europea en materia de Inteligencia Artificial y su impacto en empresas y ciudadanos. Esta regulación no solo pretende asegurar un uso responsable y ético de la IA, sino también ofrecer un marco legal que proteja a las personas y fomente la innovación en un entorno seguro.
Principales objetivos del reglamento
El principal objetivo del Reglamento de IA es garantizar la seguridad y los derechos fundamentales de los ciudadanos de la UE frente a los riesgos potenciales de la IA. Para ello, la normativa clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo, siendo los sistemas de IA que manipulen comportamientos humanos o el reconocimiento facial en tiempo real en espacios públicos la categoría más alta de riego, mientras que las aplicaciones de riesgo limitado y mínimo están sujetas a obligaciones de transparencia, asegurando que los usuarios sean informados cuando interactúan con sistemas de IA.
Ámbito de aplicación
Las empresas proveedoras de IA en la UE deben modificar sus procesos para cumplir con el nuevo reglamento, lo que implica realizar evaluaciones exhaustivas de riesgos y asegurar la conformidad con los requisitos técnicos y de transparencia, preparar documentación técnica detallada y someterse a auditorías de conformidad, así como incorporar principios éticos y de seguridad en todas las fases del desarrollo de sistemas de IA.
Implicaciones globales
Esta nueva regulación tiene un impacto significativo y positivo en los ciudadanos de la UE, ya que garantiza una protección de sus derechos fundamentales, mejorando la transparencia y la seguridad de las aplicaciones de IA, y fomentando la confianza en las tecnologías emergentes.
Pero no solo eso, la influencia de esta normativa podría extenderse más allá de Europa, estableciendo un estándar internacional para la regulación de la IA. De esta forma las empresas que operan a nivel global deberán adaptarse a estos nuevos requisitos para acceder al mercado europeo, lo que podría incentivar la adopción de prácticas responsables en todo el mundo. “Esta normativa representa un paso crucial para asegurar que las aplicaciones de IA se desarrollen y utilicen de manera segura y ética. Esto no solo fortalecerá la confianza de los consumidores en las tecnologías de IA, sino que promoverá un entorno de innovación. Ante ello, las empresas debemos facilitar la adopción de las medidas y prácticas propuestas.”, afirman desde Entelgy.