El Gobierno adapta la legislación española al reglamento europeo de IA
El Gobierno ha dado luz verde al anteproyecto de ley de gobernanza de la Inteligencia Artificial (IA), con el objetivo de garantizar un uso ético, inclusivo y beneficioso de esta tecnología en España. Esta normativa se alinea con el reglamento europeo de IA, que ya está en vigor, y establece medidas para mitigar riesgos, prevenir prácticas prohibidas y promover la innovación responsable en el sector.
El ministro para la Transformación Digital y de la Función Pública, Óscar López, destacó la importancia de esta ley en la rueda de prensa posterior al Consejo de Ministros:
“La IA es una herramienta muy poderosa, que puede mejorar nuestras vidas o poner en riesgo nuestra democracia. Puede utilizarse para avances médicos y científicos, pero también para difundir desinformación y odio. Por ello, es fundamental garantizar su buen uso y establecer mecanismos de gobernanza adecuados”, afirmó el ministro.
El anteproyecto se tramitará por la vía de urgencia, con el objetivo de aprobarlo en el Consejo de Ministros y enviarlo a las Cortes en los próximos meses.
Prohibiciones y sanciones para usos maliciosos de la IA
El reglamento europeo de IA prohíbe determinados usos de la inteligencia artificial que puedan poner en riesgo la seguridad, la autonomía o los derechos fundamentales de las personas. Entre las prácticas prohibidas, que podrán sancionarse a partir del 2 de agosto de 2025, se incluyen:
- Manipulación subliminal: Uso de imágenes o sonidos imperceptibles para influir en las decisiones de las personas sin su consentimiento, causando un perjuicio considerable (adicciones, violencia de género, manipulación electoral).
- Explotación de vulnerabilidades: Utilización de IA para manipular a personas en situación de vulnerabilidad, como niños, personas con discapacidad o ciudadanos con bajos recursos económicos.
- Clasificación biométrica con sesgos discriminatorios: Categorización de personas según raza, orientación política, religiosa o sexual mediante el análisis de imágenes o datos personales.
- Sistemas de puntuación social: Evaluaciones automatizadas de ciudadanos según su comportamiento o características personales que puedan limitar su acceso a servicios públicos o privados.
- Valoración del riesgo delictivo: Predicción de crímenes basada en datos personales, excepto en casos excepcionales previstos por la ley.
- Inferencia emocional en entornos laborales o educativos: Uso de IA para evaluar el estado emocional de empleados o estudiantes con fines de despido o promoción, salvo por razones médicas o de seguridad.
Las sanciones para quienes incumplan estas disposiciones oscilarán entre 7,5 y 35 millones de euros, o entre el 2% y el 7% del volumen de negocio mundial del infractor.
Las autoridades responsables de supervisar el cumplimiento de estas normas incluyen la Agencia Española de Protección de Datos (AEPD), el Consejo General del Poder Judicial (CGPJ), la Junta Electoral Central y la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA).
Regulación de los sistemas de IA de alto riesgo
El anteproyecto establece una regulación específica para los sistemas de IA considerados de alto riesgo, que incluyen:
- Productos industriales y de consumo: Máquinas, juguetes, equipos médicos, sistemas de transporte y dispositivos electrónicos que incorporen IA para funciones de seguridad.
- Sistemas de identificación biométrica en entornos críticos como aeropuertos, infraestructuras esenciales y organismos gubernamentales.
- IA en educación, empleo y acceso a servicios esenciales, incluyendo evaluación de candidatos a empleos o acceso a seguros y créditos.
- Sistemas de IA aplicados a justicia, migración y procesos electorales.
Estos sistemas deberán cumplir con requisitos estrictos de gestión de riesgos, supervisión humana, transparencia y auditoría. En caso de incumplimiento, las sanciones varían según la gravedad de la infracción:
- Infracciones muy graves (no comunicar incidentes que causen daños a personas o infraestructuras críticas) pueden suponer multas de hasta 15 millones de euros o el 3% del volumen de negocio mundial.
- Infracciones graves (no incluir supervisión humana en sistemas biométricos laborales o incumplir normas de calidad en robots industriales) conllevan sanciones de hasta 7,5 millones de euros o el 2% del volumen de negocio.
- Infracciones leves, como no incluir el marcado CE en sistemas de alto riesgo, serán penalizadas con sanciones menores.
Asimismo, se establecerá la obligatoriedad de etiquetar cualquier contenido generado por IA (deepfakes), identificándolo claramente en la primera interacción con el usuario.
España lidera la implementación de entornos de prueba para IA
El reglamento europeo obliga a los Estados miembros a crear entornos controlados de prueba (sandboxes de IA) para permitir el desarrollo y validación de sistemas de IA antes de su comercialización. España se ha adelantado a este requisito, lanzando en diciembre de 2024 una convocatoria para seleccionar hasta 12 proyectos de IA de alto riesgo que participarán en un entorno de pruebas durante un año.
Los resultados de este programa servirán para elaborar guías técnicas que ayuden a las empresas a cumplir con los requisitos regulatorios.
Impacto y perspectivas de la nueva regulación
Con esta ley, España se posiciona como uno de los primeros países en Europa en adaptar su legislación al nuevo reglamento de IA, buscando un equilibrio entre la protección de los ciudadanos y el fomento de la innovación.
El sector tecnológico deberá adaptarse a estas nuevas regulaciones, lo que implicará mayores controles y requisitos de transparencia para las empresas que desarrollan o utilizan IA en sectores clave. Al mismo tiempo, la legislación proporciona un marco claro para que la industria siga innovando dentro de los límites éticos y legales.
A medida que se implementen estas medidas, será clave observar cómo empresas y organismos públicos se adaptan a los nuevos estándares y qué impacto tendrá en el desarrollo de la inteligencia artificial en España y en la Unión Europea.