Una sentencia judicial en EE. UU. legitima el uso de obras con copyright para entrenar inteligencia artificial

Un tribunal federal estadounidense ha emitido una sentencia que podría marcar un antes y un después en el debate sobre la legalidad del uso de obras protegidas por derechos de autor para entrenar modelos de inteligencia artificial. Según el fallo del juez William Alsup, el uso de libros y otros contenidos con copyright en procesos de entrenamiento de modelos como los de Anthropic se considera «uso justo» (fair use), una interpretación que ya está generando controversia entre creadores y expertos legales.

El caso contra Anthropic y la defensa del “uso justo”

La demanda fue presentada por los autores Andrea Bartz, Charles Graeber y Kirk Wallace Johnson contra la empresa Anthropic, acusada de utilizar copias digitales no autorizadas de libros impresos para entrenar su modelo Claude AI. Sin embargo, el juez Alsup, conocido por su historial en casos tecnológicos, falló en gran parte a favor de la tecnológica, afirmando que el uso de esas obras en el entrenamiento de modelos de lenguaje era transformador y, por tanto, justificado por la doctrina del uso justo.

Alsup comparó el entrenamiento de modelos de IA con la educación de niños, argumentando que el objetivo del Copyright Act es fomentar la creación de obras originales, no proteger a los autores de la competencia. Según su razonamiento, si enseñar a niños a escribir usando libros está permitido, entrenar una IA con textos también debería estarlo.

Piratería, el único punto en contra de la IA

El único aspecto en el que Anthropic se enfrentará a consecuencias legales es el uso de libros pirateados. El tribunal reconoció que la creación de una biblioteca digital con obras obtenidas ilegalmente, aunque no se usen directamente para el entrenamiento, no constituye un uso justo. Se celebrará un juicio adicional para determinar los daños y perjuicios correspondientes.

Impacto para creadores, editores y medios

La decisión supone un duro golpe para escritores, artistas, músicos, periodistas y otros creadores que llevan años viendo cómo sus obras son extraídas de internet, digitalizadas y utilizadas para entrenar sistemas de IA sin ningún tipo de compensación. Plataformas como Midjourney y compañías como OpenAI, Anthropic o Stability AI ya han sido objeto de críticas —y demandas— por prácticas similares.

A principios de junio, Disney y Universal demandaron conjuntamente a Midjourney, calificándola como “un pozo sin fondo de plagio” por entrenar sus modelos con imágenes de personajes protegidos por copyright. Que dos gigantes mediáticos, tradicionalmente rivales, se unan en una cruzada legal, refleja la magnitud del problema.

Además, los medios digitales también se ven perjudicados. Los usuarios recurren cada vez más a respuestas generadas por IA en lugar de visitar los sitios originales. Según AppleInsider, algunos modelos han plagiado directamente tutoriales de su web, reorganizando fragmentos sin sentido y creando instrucciones inservibles o erróneas.

Apple y la vía ética del entrenamiento de IA

En contraste con otros actores, Apple ha optado por licenciar contenido de forma transparente, ofreciendo millones a medios de comunicación y plataformas como Shutterstock para entrenar sus modelos de IA, incluidos los usados en Apple Intelligence.

No obstante, bloquear el acceso a los rastreadores de IA a través de robots.txt solo funciona con empresas éticas, ya que los scrapers maliciosos ignoran esta medida. Además, el coste del tráfico que genera el scraping lo asume el sitio web víctima, no la IA que lo utiliza.

Un precedente legal con implicaciones globales

La sentencia de California podría sentar un precedente legal peligroso en EE. UU., donde las tecnológicas están presionando para impedir cualquier regulación estatal sobre IA durante al menos una década. Mientras tanto, en la Unión Europea se avanza hacia un Pacto de IA, con normas que buscan garantizar un desarrollo seguro, aunque Apple, según informaciones, no estaría participando activamente en estas iniciativas.


Conclusión: El fallo judicial refuerza la posición de las grandes tecnológicas, permitiéndoles seguir entrenando modelos con contenido protegido, sin remunerar a los creadores. Para autores, medios y artistas, esto supone un nuevo desafío en la lucha por la propiedad intelectual en la era de la inteligencia artificial. Mientras tanto, la batalla legal y ética en torno al uso de datos para entrenar modelos generativos está lejos de terminar.

vía: appleinsider

Scroll al inicio