El pasado 2 de febrero de 2025 entraron en vigor las primeras obligaciones del Reglamento Europeo de Inteligencia Artificial (RIA), una norma histórica que establece un marco legal pionero para el desarrollo y uso de sistemas de IA dentro de la Unión Europea. Con sanciones que pueden alcanzar los 35 millones de euros o el 7% de la facturación anual, el RIA obliga a las empresas y organizaciones a revisar y adaptar sus procesos para evitar riesgos legales y proteger los derechos fundamentales.
¿Qué obligaciones ya son exigibles?
La entrada en vigor escalonada del RIA, prevista en su artículo 113, permite a las empresas adaptarse progresivamente a los requisitos. Las primeras obligaciones que ya son de obligado cumplimiento se centran en dos grandes áreas:
1. Alfabetización en IA
El artículo 4 del reglamento establece que proveedores y responsables de despliegue de IA deben garantizar que sus equipos humanos estén formados y capacitados. Esta “alfabetización” implica que el personal conozca:
- Las capacidades y limitaciones de los sistemas de IA utilizados.
- Los riesgos inherentes a su aplicación.
- Las oportunidades que pueden aprovecharse, siempre bajo un uso ético y legal.
Esto incluye programas de formación continua que expliquen desde el funcionamiento básico de los algoritmos hasta sus posibles sesgos y consecuencias jurídicas. La formación debe alcanzar no solo a desarrolladores y técnicos, sino también a departamentos como marketing, recursos humanos y dirección, que a menudo participan en la toma de decisiones relacionadas con IA.
2. Prohibición de usos inaceptables de la IA
El artículo 5 del reglamento veta expresamente ciertas aplicaciones de IA consideradas de «riesgo inaceptable» porque amenazan la seguridad y los derechos fundamentales. Entre los usos prohibidos destacan:
- La manipulación subliminal que afecte al comportamiento de las personas.
- La explotación de vulnerabilidades de grupos específicos (como menores o personas con discapacidad).
- La puntuación social, es decir, sistemas que clasifiquen a las personas en función de su comportamiento o características personales.
- La predicción de delitos basada en perfiles o datos personales.
- El reconocimiento emocional en entornos laborales o educativos.
El incumplimiento de estas prohibiciones conlleva multas especialmente elevadas, por lo que es fundamental auditar y eliminar cualquier herramienta que pueda incurrir en estas prácticas.
¿A quién afecta el RIA?
El reglamento afecta a un amplio abanico de entidades:
- Proveedores de IA: empresas o individuos que desarrollan, comercializan o distribuyen sistemas de IA.
- Responsables de despliegue: aquellas organizaciones que utilizan sistemas de IA bajo su responsabilidad, ya sea para procesos internos o de cara al cliente.
- Personal y colaboradores: cualquier persona que opere, monitorice o gestione sistemas de IA debe ser formado e informado.
Además, cualquier empresa que utilice sistemas de inteligencia artificial, directa o indirectamente, debe asegurarse de que sus herramientas no entran en ninguna de las categorías prohibidas.
Claves para cumplir con el reglamento
La complejidad del RIA exige una estrategia clara y bien definida. Estas son las principales recomendaciones para las organizaciones:
1. Inventariar los sistemas de IA
Realizar un inventario completo de todas las aplicaciones de IA que se utilicen en la organización, identificando su propósito, funcionamiento y grado de riesgo.
2. Evaluar riesgos y clasificar usos
Revisar si alguno de los sistemas en uso podría considerarse inaceptable o de alto riesgo según el reglamento, y proceder a su retirada o adaptación.
3. Formar a todo el equipo
El personal debe recibir formación específica sobre principios éticos, riesgos y normativa aplicable a la IA. Esta capacitación debe ser actualizada periódicamente.
4. Establecer procesos de control y auditoría
Implantar mecanismos internos de supervisión y revisión periódica que garanticen el cumplimiento normativo. Esto incluye la designación de responsables internos que puedan coordinar el seguimiento regulador.
5. Contar con asesoramiento legal especializado
El reglamento es complejo y su incumplimiento puede derivar en graves consecuencias económicas y reputacionales. Por tanto, contar con abogados especializados en derecho tecnológico y en inteligencia artificial es esencial para:
- Interpretar correctamente las disposiciones legales.
- Redactar políticas y procedimientos conformes a la ley.
- Estar al tanto de futuras modificaciones normativas y asegurar una adaptación ágil y proactiva.
La importancia de anticiparse
La entrada en vigor de las primeras obligaciones del Reglamento de IA marca un antes y un después en la gestión de la inteligencia artificial en Europa. Las empresas que tomen medidas desde ya estarán mejor posicionadas para evitar sanciones, proteger su reputación y aprovechar las oportunidades que ofrece un uso ético y responsable de la IA.
En un contexto de creciente escrutinio por parte de las autoridades y consumidores, la anticipación y la responsabilidad legal se convierten en factores clave para la competitividad y la sostenibilidad empresarial.
Referencia: Let’s Law