La compañía de Mark Zuckerberg considera que las directrices comunitarias van “demasiado lejos” y generan inseguridad jurídica para los desarrolladores de modelos de inteligencia artificial
La tensión entre Meta y las autoridades europeas ha vuelto a quedar en evidencia. La multinacional tecnológica ha anunciado públicamente que no firmará el nuevo código de conducta sobre inteligencia artificial presentado por la Comisión Europea, un marco voluntario que acompaña la implementación de la Ley de Inteligencia Artificial de la UE (AI Act).
Aunque no tiene carácter obligatorio, este código busca establecer buenas prácticas para los desarrolladores de modelos de propósito general (GPAI), como los sistemas fundacionales utilizados en aplicaciones de generación de texto, imagen o voz mediante IA. Sin embargo, Meta ha rechazado el texto alegando que introduce “inseguridad legal” y medidas que “van más allá del propio AI Act”.
Un rechazo con mensaje político
Joel Kaplan, director de Asuntos Globales de Meta, fue directo: “Europa está tomando el camino equivocado en materia de IA”. En un comunicado publicado este viernes, Kaplan afirmó que la empresa ha revisado cuidadosamente el código y ha decidido no adherirse. “Este código introduce un número de incertidumbres legales para los desarrolladores, así como medidas que exceden el alcance del AI Act”, puntualizó.
Este no es el primer roce entre Meta y la legislación europea sobre inteligencia artificial. En anteriores ocasiones, la empresa ya calificó la normativa como “impredecible”, alegando que “entorpece la innovación” y “perjudica a los consumidores europeos” al retrasar o limitar el acceso a nuevos productos.
¿Qué dice el código de conducta?
El código de buenas prácticas publicado el pasado 10 de julio establece directrices claras para el desarrollo responsable de modelos de IA:
- Prohíbe el entrenamiento de modelos con materiales pirateados.
- Obliga a respetar las solicitudes de exclusión por parte de artistas y escritores.
- Exige documentación actualizada sobre las características de los modelos y su evolución.
Aunque adherirse al código es voluntario, la Comisión Europea ha advertido que aquellas empresas que no lo firmen estarán sujetas a una mayor supervisión regulatoria y deberán demostrar por otros medios su cumplimiento con el AI Act. Las infracciones pueden conllevar multas de hasta un 7% de la facturación anual global para las grandes tecnológicas y un 3% para los desarrolladores de modelos avanzados.
Apoyo desde Washington
Meta parece contar con apoyo en el otro lado del Atlántico. El presidente estadounidense, Donald Trump, que asumió su segundo mandato en enero de 2025, ha presionado públicamente a Bruselas para que renuncie al AI Act, calificando la normativa como “una forma de impuesto”.
Con un clima político favorable a la desregulación en EE. UU., Meta ve más viable mantener su autonomía que adaptarse a un marco europeo que considera excesivamente restrictivo. A pesar de ello, su negativa podría traducirse en una mayor presión legal y reputacional dentro del bloque comunitario.
El dilema de las tecnológicas ante las nuevas reglas del juego
Mientras otras empresas buscan alinearse con el marco normativo europeo para ganar credibilidad y reducir riesgos futuros, Meta opta por el enfrentamiento y la defensa de un modelo más liberal en el desarrollo de inteligencia artificial. El debate está servido: ¿deben las grandes tecnológicas autorregularse o someterse a normas estrictas para proteger a los ciudadanos?
Por ahora, la UE mantiene firme su apuesta por una IA ética, transparente y responsable, mientras que Meta parece dispuesta a librar una nueva batalla normativa, esta vez en el terreno de la inteligencia artificial.