Europa retrasa parte de la Ley de IA y reabre el debate sobre competitividad

La Unión Europea ha cerrado un acuerdo provisional para suavizar y retrasar parte de la aplicación de su Ley de Inteligencia Artificial. El pacto, alcanzado entre los negociadores del Consejo y del Parlamento Europeo, aplaza las obligaciones más exigentes para sistemas de IA de alto riesgo, introduce cambios para reducir carga administrativa y añade una prohibición específica contra las herramientas que generan imágenes sexuales o íntimas sin consentimiento.

El acuerdo todavía debe ser respaldado formalmente por los Estados miembros y por el Parlamento Europeo, así que no es definitivo. Pero el mensaje político ya es claro: Bruselas intenta corregir el calendario de una norma que muchos gobiernos y empresas consideran demasiado pesada para un mercado europeo que compite con Estados Unidos y China en plena carrera por la IA.

La Ley de IA entró en vigor el 1 de agosto de 2024 y se diseñó con una aplicación por fases. Algunas prohibiciones y obligaciones de alfabetización en IA empezaron a aplicarse en febrero de 2025, mientras que las reglas para modelos de propósito general comenzaron en agosto de 2025. El gran bloque pendiente era el de los sistemas de alto riesgo, previsto inicialmente para el 2 de agosto de 2026 en muchas categorías sensibles. Con el nuevo pacto, esa fecha se mueve.

Más tiempo para los sistemas de alto riesgo

La principal modificación afecta a los sistemas de IA considerados de alto riesgo. Los sistemas independientes incluidos en ámbitos como empleo, educación, biometría, infraestructuras críticas, acceso a servicios esenciales, justicia, migración o fuerzas de seguridad pasarían a estar sujetos a las obligaciones desde el 2 de diciembre de 2027. En el caso de sistemas de IA integrados en productos regulados por legislación sectorial, la fecha se desplazaría al 2 de agosto de 2028.

La explicación oficial es que las empresas necesitan estándares, guías y herramientas listas antes de poder cumplir con una norma tan compleja. El Consejo sostiene que el cambio aporta seguridad jurídica, reduce costes recurrentes y evita una aplicación fragmentada en los distintos Estados miembros. Marilena Raouna, viceministra chipriota de Asuntos Europeos, defendió que el acuerdo apoya a las empresas al reducir cargas administrativas y al hacer más armonizada la aplicación de las reglas.

La lectura crítica es distinta. Para una parte del sector tecnológico, la UE ha llegado tarde a la carrera de la IA y corre el riesgo de regular antes de tener campeones propios. Para organizaciones de derechos digitales y parte del Parlamento, retrasar obligaciones puede debilitar la protección de los ciudadanos justo cuando los sistemas de IA empiezan a usarse en decisiones laborales, administrativas, policiales o financieras.

Ambas preocupaciones son legítimas. Europa necesita reglas claras para evitar usos abusivos de la IA, pero también necesita que sus empresas puedan desarrollar, probar y vender tecnología sin quedar atrapadas en una burocracia imposible. El problema no es regular o no regular. El problema es si la regulación llega con suficiente precisión, medios técnicos y calendario realista.

La maquinaria queda fuera de la aplicación directa

Uno de los cambios más relevantes afecta a la interacción entre la Ley de IA y la legislación sectorial. El acuerdo introduce una vía para evitar solapamientos cuando ya existan normas específicas con requisitos similares. En el caso de la maquinaria, se ha pactado excluirla de la aplicación directa de la Ley de IA, aunque la Comisión podrá adoptar actos delegados dentro del reglamento de maquinaria para añadir requisitos de salud y seguridad vinculados a sistemas de IA de alto riesgo.

Este punto responde a una queja frecuente de la industria: el riesgo de tener que cumplir dos veces con obligaciones parecidas. Sectores como maquinaria, dispositivos médicos, juguetes, ascensores o embarcaciones ya cuentan con marcos regulatorios propios. Añadir encima una capa horizontal de IA sin coordinación podía generar confusión y costes adicionales.

La cuestión es si esta simplificación será una mejora técnica o una rebaja sustancial de controles. Si sirve para evitar duplicidades y aclarar responsabilidades, puede ayudar. Si se convierte en una puerta para dejar sin supervisión aplicaciones sensibles, alimentará la crítica de que Bruselas está cediendo demasiado ante la presión empresarial.

Deepfakes sexuales y marcado de contenido generado por IA

El acuerdo no solo retrasa obligaciones. También endurece una parte muy concreta de la norma al introducir una prohibición sobre prácticas de IA relacionadas con la generación de contenido sexual o íntimo no consentido, así como material de abuso sexual infantil. La medida responde al aumento de herramientas capaces de crear falsos desnudos, deepfakes sexuales o imágenes explícitas a partir de fotografías reales.

La prohibición se aplicaría desde el 2 de diciembre de 2026. Para los eurodiputados que han defendido la medida, el objetivo es cerrar el paso a aplicaciones que ya están causando daños muy graves, especialmente a mujeres, adolescentes y menores. En este punto, el consenso político parece mucho más claro: la generación de imágenes sexuales sin consentimiento no puede tratarse como un simple uso creativo de la IA.

También se modifica el calendario de transparencia para el contenido generado artificialmente. El acuerdo fija el 2 de diciembre de 2026 como nueva fecha para aplicar las soluciones de marcado o identificación de contenido generado por IA, reduciendo el periodo de gracia inicialmente previsto para los proveedores. Este tipo de obligación será relevante para imágenes, vídeos, audios y otros contenidos sintéticos, aunque su eficacia dependerá de estándares técnicos, interoperabilidad y capacidad real de detección.

Europa intenta no perder la carrera sin renunciar a regular

La decisión llega en un momento incómodo para la UE. Estados Unidos lidera gran parte del mercado de modelos, chips, cloud e inversión privada en IA. China avanza con su propio ecosistema de modelos, infraestructura y aplicaciones. Europa, mientras tanto, mantiene talento, investigación, industria y capacidad regulatoria, pero le cuesta convertir todo eso en plataformas globales de escala comparable.

Por eso el debate sobre la Ley de IA se ha vuelto tan intenso. Para sus defensores, la norma puede dar confianza, seguridad jurídica y un marco común para que la IA se despliegue de forma responsable. Para sus críticos, puede convertirse en otro ejemplo de Europa regulando antes de competir, con costes de cumplimiento que pesan más en empresas medianas y startups que en las grandes tecnológicas.

El acuerdo provisional intenta situarse en medio de esas dos posiciones. Mantiene la arquitectura de la Ley de IA, no elimina sus obligaciones principales y añade una prohibición concreta contra los deepfakes sexuales. Pero, al mismo tiempo, retrasa la aplicación de alto riesgo, introduce excepciones sectoriales y busca reducir burocracia.

La pregunta ahora es si esta corrección será suficiente. Las empresas necesitan claridad, no una norma que cambie cada pocos meses. Los ciudadanos necesitan protección, no promesas de cumplimiento aplazadas indefinidamente. Y los reguladores necesitan capacidad real para supervisar sistemas complejos, no solo textos legales ambiciosos.

La Ley de IA sigue siendo el marco más influyente del mundo para regular esta tecnología. Lo que cambia con este pacto es el ritmo. Bruselas admite, aunque no lo diga así, que aplicar una norma tan amplia exige más tiempo, más guías y menos duplicidades. La carrera de la IA no espera, pero una regulación mal aplicada tampoco ayuda a Europa a ganar.

Preguntas frecuentes

¿Se ha cancelado la Ley de IA europea?
No. La Ley de IA sigue en vigor. Lo que se ha acordado de forma provisional es retrasar y simplificar parte de su aplicación, especialmente las obligaciones para sistemas de alto riesgo.

¿Cuándo se aplicarán ahora las reglas de IA de alto riesgo?
Los sistemas independientes de alto riesgo pasarían a estar sujetos a las reglas desde el 2 de diciembre de 2027. Los sistemas integrados en productos regulados tendrían plazo hasta el 2 de agosto de 2028.

¿Qué cambia sobre los deepfakes sexuales?
El acuerdo introduce una prohibición específica para sistemas de IA que generen contenido sexual o íntimo no consentido, así como material de abuso sexual infantil. Esa prohibición empezaría a aplicarse el 2 de diciembre de 2026.

¿Por qué la UE retrasa parte de la norma?
La explicación oficial es reducir carga administrativa, evitar solapamientos con otras normas y dar tiempo a que estén listas las guías y estándares necesarios. Los críticos creen que es una cesión ante la presión de grandes empresas tecnológicas e industriales.

Scroll al inicio