Entra en vigor el Reglamento Europeo de Inteligencia Artificial: primeras obligaciones y claves para su cumplimiento

El pasado 2 de febrero de 2025 entraron en vigor las primeras obligaciones del Reglamento Europeo de Inteligencia Artificial (RIA), una norma histórica que establece un marco legal pionero para el desarrollo y uso de sistemas de IA dentro de la Unión Europea. Con sanciones que pueden alcanzar los 35 millones de euros o el 7% de la facturación anual, el RIA obliga a las empresas y organizaciones a revisar y adaptar sus procesos para evitar riesgos legales y proteger los derechos fundamentales.

¿Qué obligaciones ya son exigibles?

La entrada en vigor escalonada del RIA, prevista en su artículo 113, permite a las empresas adaptarse progresivamente a los requisitos. Las primeras obligaciones que ya son de obligado cumplimiento se centran en dos grandes áreas:

1. Alfabetización en IA

El artículo 4 del reglamento establece que proveedores y responsables de despliegue de IA deben garantizar que sus equipos humanos estén formados y capacitados. Esta “alfabetización” implica que el personal conozca:

  • Las capacidades y limitaciones de los sistemas de IA utilizados.
  • Los riesgos inherentes a su aplicación.
  • Las oportunidades que pueden aprovecharse, siempre bajo un uso ético y legal.

Esto incluye programas de formación continua que expliquen desde el funcionamiento básico de los algoritmos hasta sus posibles sesgos y consecuencias jurídicas. La formación debe alcanzar no solo a desarrolladores y técnicos, sino también a departamentos como marketing, recursos humanos y dirección, que a menudo participan en la toma de decisiones relacionadas con IA.

2. Prohibición de usos inaceptables de la IA

El artículo 5 del reglamento veta expresamente ciertas aplicaciones de IA consideradas de «riesgo inaceptable» porque amenazan la seguridad y los derechos fundamentales. Entre los usos prohibidos destacan:

  • La manipulación subliminal que afecte al comportamiento de las personas.
  • La explotación de vulnerabilidades de grupos específicos (como menores o personas con discapacidad).
  • La puntuación social, es decir, sistemas que clasifiquen a las personas en función de su comportamiento o características personales.
  • La predicción de delitos basada en perfiles o datos personales.
  • El reconocimiento emocional en entornos laborales o educativos.

El incumplimiento de estas prohibiciones conlleva multas especialmente elevadas, por lo que es fundamental auditar y eliminar cualquier herramienta que pueda incurrir en estas prácticas.

¿A quién afecta el RIA?

El reglamento afecta a un amplio abanico de entidades:

  • Proveedores de IA: empresas o individuos que desarrollan, comercializan o distribuyen sistemas de IA.
  • Responsables de despliegue: aquellas organizaciones que utilizan sistemas de IA bajo su responsabilidad, ya sea para procesos internos o de cara al cliente.
  • Personal y colaboradores: cualquier persona que opere, monitorice o gestione sistemas de IA debe ser formado e informado.

Además, cualquier empresa que utilice sistemas de inteligencia artificial, directa o indirectamente, debe asegurarse de que sus herramientas no entran en ninguna de las categorías prohibidas.

Claves para cumplir con el reglamento

La complejidad del RIA exige una estrategia clara y bien definida. Estas son las principales recomendaciones para las organizaciones:

1. Inventariar los sistemas de IA
Realizar un inventario completo de todas las aplicaciones de IA que se utilicen en la organización, identificando su propósito, funcionamiento y grado de riesgo.

2. Evaluar riesgos y clasificar usos
Revisar si alguno de los sistemas en uso podría considerarse inaceptable o de alto riesgo según el reglamento, y proceder a su retirada o adaptación.

3. Formar a todo el equipo
El personal debe recibir formación específica sobre principios éticos, riesgos y normativa aplicable a la IA. Esta capacitación debe ser actualizada periódicamente.

4. Establecer procesos de control y auditoría
Implantar mecanismos internos de supervisión y revisión periódica que garanticen el cumplimiento normativo. Esto incluye la designación de responsables internos que puedan coordinar el seguimiento regulador.

5. Contar con asesoramiento legal especializado
El reglamento es complejo y su incumplimiento puede derivar en graves consecuencias económicas y reputacionales. Por tanto, contar con abogados especializados en derecho tecnológico y en inteligencia artificial es esencial para:

  • Interpretar correctamente las disposiciones legales.
  • Redactar políticas y procedimientos conformes a la ley.
  • Estar al tanto de futuras modificaciones normativas y asegurar una adaptación ágil y proactiva.

La importancia de anticiparse

La entrada en vigor de las primeras obligaciones del Reglamento de IA marca un antes y un después en la gestión de la inteligencia artificial en Europa. Las empresas que tomen medidas desde ya estarán mejor posicionadas para evitar sanciones, proteger su reputación y aprovechar las oportunidades que ofrece un uso ético y responsable de la IA.

En un contexto de creciente escrutinio por parte de las autoridades y consumidores, la anticipación y la responsabilidad legal se convierten en factores clave para la competitividad y la sostenibilidad empresarial.

Referencia: Let’s Law

Scroll al inicio