Este mes de febrero de 2025 entra en vigor el Reglamento de Inteligencia Artificial de la Unión Europea (UE), una normativa pionera a nivel mundial que busca garantizar el desarrollo y uso responsable de esta tecnología en el continente. Tras su aprobación en marzo de 2024, este reglamento establece restricciones, obligaciones y sanciones para los sistemas de IA que pueden tener un impacto significativo en la vida de los ciudadanos europeos.
Un enfoque basado en el riesgo
El reglamento clasifica los sistemas de IA en cuatro categorías según su nivel de riesgo: inadmisible, alto, limitado y mínimo o nulo. Los sistemas de mayor riesgo, especialmente aquellos que pueden vulnerar derechos fundamentales o comprometer la seguridad, están sujetos a requisitos más estrictos. Entre las medidas que ya son obligatorias destaca la prohibición de sistemas de IA considerados de riesgo inadmisible, como los de identificación biométrica remota en espacios públicos, salvo en casos excepcionales y bajo supervisión rigurosa.
Las empresas que no cumplan con estas normativas podrán enfrentarse a multas de hasta 35 millones de euros o el 7% de su facturación anual, lo que subraya la seriedad con la que la UE afronta este desafío.
Protección de derechos ciudadanos
Uno de los pilares del reglamento es la transparencia en la toma de decisiones automatizadas. Cuando una decisión afecte a un individuo, este tendrá derecho a ser informado sobre el uso de IA y a solicitar explicaciones sobre la base de dicha decisión. Esto es especialmente relevante en áreas sensibles como la contratación laboral, la concesión de créditos o la administración pública.
Además, se establecen normas estrictas para el uso de sistemas de identificación biométrica remota, los cuales solo podrán emplearse en situaciones muy concretas, como la lucha contra el terrorismo o la búsqueda de personas desaparecidas.
Obligaciones para desarrolladores y distribuidores
El reglamento no solo afecta a los desarrolladores de IA, sino también a los distribuidores, importadores y responsables del despliegue. Estos deberán verificar que los sistemas que comercializan o utilizan cumplen con la normativa. Para facilitar la supervisión, cada Estado miembro designará una autoridad encargada de vigilar el mercado. En el caso de España, esta tarea recaerá en la Agencia Española de Supervisión de la Inteligencia Artificial.
Innovación y sandboxes
Con el objetivo de fomentar la innovación sin comprometer la seguridad, el reglamento introduce los denominados «sandboxes», espacios controlados donde las empresas podrán probar sistemas de IA de alto riesgo en condiciones reales pero bajo supervisión estricta. Estos entornos permitirán evaluar el impacto y mitigar posibles riesgos antes de su lanzamiento al mercado.
Un precedente global
El Reglamento de Inteligencia Artificial de la UE sienta un precedente global en la regulación de esta tecnología, combinando innovación con seguridad. Aunque su impacto en el desarrollo del sector aún está por verse, se espera que inspire a otros países a adoptar marcos similares en un contexto cada vez más digitalizado.
Con la entrada en vigor de estas normas, Europa refuerza su liderazgo en la promoción de una IA centrada en el ser humano y confiable, avanzando hacia un futuro donde la tecnología respete los valores y derechos fundamentales.
Fuentes:
- DOUE-L-2024-81079 Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo
- BOE