Ley de Inteligencia Artificial de la UE: Un nuevo marco regulatorio para la IA

La Unión Europea (UE) ha tomado un paso firme hacia la regulación de la inteligencia artificial (IA) con la propuesta de la Ley de Inteligencia Artificial, que representa la primera normativa integral de su tipo a nivel mundial.

Hacia una Regulación de la IA en la UE

Dentro de su estrategia digital, la UE aspira a regular la IA con el objetivo de establecer un marco de confianza y seguridad en su desarrollo y aplicación. Las posibilidades que la IA ofrece son vastas, desde mejoras en la atención sanitaria hasta avances en la fabricación y energía sostenible.

En abril de 2021, la Comisión propuso este marco regulatorio inédito, en el que se sugiere que los sistemas de IA sean evaluados y categorizados según el nivel de riesgo que representen para los usuarios. Dependiendo del riesgo, las regulaciones variarán en su intensidad.

El Enfoque del Parlamento Europeo

Para el Parlamento, la seguridad y transparencia de los sistemas de IA son prioritarias. Es esencial que la IA sea supervisada por humanos, garantizando así sistemas no discriminatorios, respetuosos con el medio ambiente y, sobre todo, que eviten resultados dañinos. Además, se busca una definición coherente y neutra de IA que sea aplicable a sistemas futuros.

Clasificación del Riesgo en la Ley de IA

  • Riesgo Inaceptable: Se refiere a sistemas de IA que representen una amenaza directa a las personas. Algunos ejemplos son:
    • Manipulación cognitiva de grupos vulnerables, como juguetes con voz que pueden inducir a comportamientos riesgosos en niños.
    • Puntuación social basada en comportamientos o características personales.
    • Sistemas de identificación biométrica en tiempo real, incluido el reconocimiento facial.
    Hay excepciones, como la identificación biométrica a posteriori, permitida solo en casos específicos y con aprobación judicial.
  • Alto Riesgo: Se centra en sistemas de IA que pueden afectar la seguridad o los derechos fundamentales de las personas. Estos sistemas se dividen en dos categorías:
    • Sistemas usados en productos sujetos a regulaciones de seguridad de la UE.
    • Sistemas en ocho áreas específicas que deberán ser registrados en una base de datos de la UE, abarcando desde la identificación biométrica hasta la gestión de la migración y asistencia en interpretación jurídica.
  • IA Generativa: Modelos como ChatGPT tendrán que cumplir con requisitos específicos de transparencia, revelar su naturaleza generativa y asegurar que no produzcan contenidos ilegales.
  • Riesgo Limitado: Se refiere a sistemas que, aunque presentan un menor riesgo, aún requieren cierta regulación. Los usuarios deben saber cuándo están interactuando con un sistema de IA, especialmente cuando se trata de contenido manipulado, como los deepfakes.

Hacia el Futuro

Con la posición negociadora adoptada por los eurodiputados el 14 de junio de 2023, ahora se espera que comiencen las discusiones sobre la versión final de la ley junto a los países miembros de la UE. La meta es alcanzar un acuerdo a finales de este año, marcando así un hito en la regulación de la IA a nivel global.

vía: Unión Europea

Últimos artículos

Scroll al inicio