La guerra entre Hollywood y la Inteligencia Artificial generativa acaba de sumar un capítulo que amenaza con marcar precedentes. Disney ha enviado una carta de “cese y desistimiento” a ByteDance —matriz de TikTok— por el uso de sus personajes y franquicias en Seedance 2.0, un generador de vídeo por IA que se ha viralizado en los últimos días por su capacidad de crear clips hiperrealistas con celebridades y propiedad intelectual reconocible.
El conflicto no se limita a que los usuarios escriban prompts y “jueguen” con referencias pop. En el aviso legal, Disney sostiene que Seedance 2.0 habría sido capaz de producir contenido con personajes de Star Wars y Marvel como si fueran material de dominio público, y que la herramienta facilitaría la reproducción, distribución y creación de obras derivadas con figuras como Darth Vader o Spider-Man, sin autorización.
Un modelo viral… y un choque frontal con el control de las franquicias
Según varias coberturas publicadas esta semana, Seedance 2.0 se lanzó el 10 de febrero de 2026 y empezó a circular con fuerza en China antes de dar el salto a otros mercados a través de redes sociales. Su atractivo es evidente: la facilidad para generar escenas con estética cinematográfica, movimientos de cámara y personajes reconocibles, lo que multiplica tanto la creatividad como el riesgo de abuso.
Entre los ejemplos que han encendido la polémica se citan vídeos con celebridades como Tom Cruise y Brad Pitt, además de clips que recrean universos de franquicias populares. Este punto, el de las semejanzas de intérpretes, es especialmente sensible: incluso cuando no se usan personajes con copyright, el uso de rostros y parecidos entra en un terreno donde chocan derechos de imagen, reputación y legislación local.
La acusación más delicada: “biblioteca pirata” y entrenamiento con material protegido
La parte más explosiva del caso es la que sugiere un problema de origen, no solo de uso. Fuentes citadas por Reuters (recogidas por medios que han replicado la información) apuntan a que Disney considera que Seedance 2.0 podría haber estado “preempaquetado” con una biblioteca no autorizada de personajes protegidos. Si esa interpretación se consolidara, el debate saltaría del “mal uso por parte de usuarios” a una discusión más profunda sobre cómo se entrenan y qué incorporan los modelos.
ByteDance, por su parte, ha respondido públicamente que reforzará salvaguardas para impedir el uso no autorizado de propiedad intelectual y semejanzas. El problema para la compañía es que la promesa llega sin demasiados detalles: no ha concretado qué protecciones añadirá, cómo se aplicarán ni con qué eficacia funcionarán frente a la avalancha de contenido viral.
Paramount también se suma: Hollywood empieza a hablar con cartas, no con tuits
Disney no estaría sola. Varias informaciones apuntan a que Paramount (y en algunas coberturas se menciona Paramount Skydance) también habría enviado un aviso legal similar por presunta infracción. La señal es clara: la industria está pasando del “debate público” a la presión legal directa, intentando frenar un efecto que considera peligroso para su modelo de negocio.
En paralelo, organizaciones del sector como la Motion Picture Association (MPA) y sindicatos como SAG-AFTRA han criticado el impacto potencial de estas herramientas cuando permiten generar contenido con personajes y rostros sin licencia o sin consentimiento. Más allá de la protección del catálogo, el argumento recurrente es que estas prácticas amenazan empleos, procesos creativos y los mecanismos tradicionales de explotación de derechos.
Un choque que trasciende a Disney: quién asume la responsabilidad
Este episodio resume la gran pregunta de 2026 en el vídeo generativo: ¿de quién es la responsabilidad cuando una herramienta facilita la creación de contenido infractor? Las plataformas suelen apoyarse en el marco “somos un proveedor de tecnología”, mientras que los estudios insisten en que, si el producto hace demasiado fácil replicar franquicias o parecidos, el proveedor no puede lavarse las manos.
El conflicto también revela una tensión cultural y comercial: algunos modelos occidentales han optado por restricciones fuertes para evitar IP y rostros de famosos sin permiso, mientras que Seedance 2.0 ha destacado precisamente por su “flexibilidad” (o por su falta de frenos). En el corto plazo, esa libertad genera viralidad; en el medio, puede traducirse en una guerra legal a gran escala.
La paradoja: Disney ya había firmado un acuerdo con OpenAI para Sora
La historia, sin embargo, tiene un giro que añade matices. En diciembre de 2025, Disney anunció un acuerdo de licencia de tres años con OpenAI que permite a Sora generar vídeos cortos para redes sociales basados en un catálogo de más de 200 personajes de Disney, Marvel, Pixar y Star Wars, dentro de un marco controlado. La compañía también comunicó que una selección de esos vídeos “inspirados por fans” podría llegar a Disney+ como contenido curado.
Este dato alimenta una lectura pragmática: Disney no parece oponerse a la IA por principio, sino a la IA sin licencia o sin control. Es decir, la puerta está abierta si hay acuerdos, límites y reparto económico. De hecho, el caso Seedance 2.0 podría terminar en dos direcciones: escalada judicial si ByteDance no “cierra el grifo”, o negociación comercial si ambas partes encuentran una fórmula de licencia.
Qué puede pasar ahora: frenos técnicos, litigios… o licencias
En el corto plazo, la respuesta de ByteDance se juega en la ingeniería: filtros por IP, bloqueo de prompts, detección de personajes, y medidas contra “deepfakes” de celebridades. Pero el éxito de esas defensas es incierto: cuanto más potente y flexible es un generador, más difícil es blindarlo sin degradar la experiencia.
Para Hollywood, el movimiento es más amplio: presionar para que la industria adopte estándares y para que la justicia delimite responsabilidades. Y para los usuarios, la consecuencia probable es un escenario con más restricciones: menos libertad para “mezclar” franquicias y más fricción para generar vídeos con referencias reconocibles.
Lo que está en juego no es solo un modelo viral. Es el marco que definirá la próxima etapa del entretenimiento: si el vídeo con IA se convierte en un terreno de licencias y control, o en un “salvaje oeste” donde la viralidad se impone hasta que lleguen los tribunales.
Preguntas frecuentes
¿Qué significa una carta de “cese y desistimiento” en un caso de IA generativa?
Es un aviso formal para que una empresa detenga conductas que el remitente considera infractoras (por ejemplo, uso de personajes con copyright). Suele ser el paso previo a una demanda si no hay rectificación.
¿Puede un generador de vídeo por IA infringir copyright aunque el contenido lo cree un usuario?
Sí. El debate legal gira en torno a si la herramienta facilita la infracción (por ejemplo, con resultados sistemáticos, plantillas o tolerancia activa) y qué medidas de prevención implementa el proveedor.
¿Qué riesgos legales hay al generar vídeos con personajes de Star Wars o Marvel?
En general, el riesgo aumenta si el contenido usa personajes protegidos, logos, vestuarios o elementos distintivos, o si se distribuye con fines comerciales. En muchos países, además, la parodia tiene matices y no siempre cubre el uso.
¿Por qué se habla de “deepfakes” si el vídeo es “ficción”?
Porque la IA puede recrear rostros y semejanzas de intérpretes de forma creíble. Aunque el clip sea humorístico, puede activar conflictos por derechos de imagen, consentimiento y reputación.




