La Comisión Europea ha aprobado el contenido de sus esperadas directrices sobre las obligaciones que deben cumplir los proveedores de modelos de IA de propósito general, conocidos comúnmente como modelos fundacionales. Estas pautas, contenidas en el documento titulado “Guidelines on the scope of the obligations for general-purpose AI models”, tienen como objetivo facilitar la aplicación del Reglamento de Inteligencia Artificial (AI Act), cuya entrada en vigor está prevista para el 2 de agosto de 2025.
El AI Act, aprobado en junio de 2024, establece una arquitectura regulatoria pionera a nivel mundial para garantizar que el desarrollo y uso de la IA en Europa se realice respetando los derechos fundamentales, la democracia y el Estado de derecho, sin frenar la innovación tecnológica.
¿Qué se considera un modelo de IA de propósito general?
Las nuevas directrices aclaran conceptos clave que hasta ahora generaban incertidumbre en el sector. Entre ellos:
- Qué se entiende por “modelo de IA de propósito general”: un sistema que puede aplicarse a múltiples tareas, como generación de texto, imágenes, o traducción automática, sin haber sido entrenado exclusivamente para una sola función.
- Quién es considerado “proveedor”: el actor que desarrolla y comercializa estos modelos.
- Qué implica “poner en el mercado” un modelo: desde ofrecerlo como servicio (por ejemplo, mediante APIs) hasta su integración en dispositivos o plataformas.
Además, el documento ofrece orientaciones sobre cómo calcular los recursos computacionales utilizados durante el entrenamiento del modelo, un parámetro crucial para determinar si el modelo supone o no un riesgo sistémico.
Obligaciones diferenciadas según el riesgo
El AI Act establece un régimen de obligaciones escalonado para los proveedores de modelos fundacionales:
- Los modelos sin riesgo sistémico deben cumplir con requisitos de transparencia, incluyendo una ficha de entrenamiento que detalle los datasets utilizados.
- Los modelos con riesgo sistémico –es decir, aquellos entrenados con recursos computacionales extraordinarios o que alcanzan gran difusión– deben someterse a evaluaciones más estrictas y notificar su existencia a la Oficina de Inteligencia Artificial de la UE (AI Office).
Estas obligaciones serán aplicables desde el primer día de entrada en vigor del reglamento, por lo que el periodo actual es crucial para la adaptación técnica y legal por parte de los desarrolladores.
Un paquete normativo más amplio
Las directrices forman parte de un paquete regulatorio integral que incluye:
- Un Código de Buenas Prácticas para modelos de propósito general.
- Una plantilla estandarizada de transparencia sobre datos de entrenamiento.
- Un modelo de notificación oficial para modelos de alto riesgo.
- Un esquema de evaluación de adecuación liderado por la Comisión y la AI Board.
Estos elementos buscan garantizar que los proveedores entiendan con claridad qué se espera de ellos, evitando la ambigüedad normativa que ha dificultado la regulación tecnológica en el pasado.
Un enfoque pragmático y colaborativo
Según la Comisión, el objetivo de las directrices no es solo aplicar la ley, sino acompañar al sector tecnológico en su cumplimiento, con una interpretación “práctica y realista” de las obligaciones. La AI Office desempeñará un papel clave como interlocutor técnico y jurídico para los desarrolladores de IA.
Un paso decisivo para la soberanía digital europea
Con estas directrices, Europa refuerza su apuesta por un modelo de IA transparente, seguro y responsable, al tiempo que lanza un mensaje claro a gigantes tecnológicos y startups emergentes: operar en el mercado europeo implica aceptar ciertas garantías éticas y legales.
La cuenta atrás ha comenzado. A partir del 2 de agosto, los modelos fundacionales tendrán que ajustarse a estas reglas si quieren operar en suelo europeo. Y con ello, la UE da un paso más hacia una inteligencia artificial alineada con los valores democráticos que inspiran su proyecto político.