Guerra entre gigantes de la IA: Anthropic bloquea a OpenAI por usar sus modelos Claude para mejorar ChatGPT

La startup fundada por exmiembros de OpenAI corta el acceso a sus modelos tras detectar que la compañía rival los utilizaba para probar y afinar sus propios sistemas

Por Redacción Tecnología – Agosto 2025

El competitivo mundo de la inteligencia artificial generativa ha sumado un nuevo capítulo polémico. Anthropic, creadora de los modelos Claude, ha revocado el acceso de OpenAI a su API tras descubrir que la empresa detrás de ChatGPT estaba utilizando sus herramientas para evaluar y posiblemente mejorar sus propios modelos, incluido el futuro GPT-5.

Según reveló el medio Wired, OpenAI accedía a los modelos Claude a través de su API para realizar pruebas comparativas de rendimiento (benchmarking). En principio, este tipo de uso no es inusual en el entorno tecnológico, donde es común comparar modelos de IA entre sí. Sin embargo, Anthropic considera que se violaron los términos comerciales de uso, que prohíben explícitamente utilizar sus herramientas para entrenar o desarrollar productos competidores.

¿Qué hizo OpenAI?

El informe señala que el equipo técnico de OpenAI estaba empleando Claude Code, el entorno de desarrollo y herramientas de codificación de Anthropic, con el fin de analizar capacidades y mejorar el rendimiento de su propio modelo en desarrollo, GPT-5. Esto contraviene las condiciones del servicio, que establecen límites claros para el uso competitivo.

La situación recuerda a casos anteriores en los que grandes tecnológicas limitaron el acceso a plataformas rivales por razones estratégicas. En su momento, Facebook bloqueó a Vine en el acceso a su red social, y Salesforce hizo lo propio con competidores que accedían a sus datos para desarrollar soluciones similares.

Anthropic corta por lo sano, pero deja una puerta abierta

Como resultado de esta situación, Anthropic ha bloqueado el acceso total a sus modelos comerciales para OpenAI, aunque permite una excepción: las pruebas de evaluación de seguridad. Es decir, OpenAI aún podrá realizar ciertas pruebas de benchmarking relacionadas con la seguridad de los modelos, pero no utilizar las herramientas para desarrollo de productos.

Desde OpenAI, un portavoz expresó su desacuerdo con la decisión, aunque matizó:

“Respetamos la decisión de Anthropic, aunque resulta decepcionante, especialmente considerando que su API sigue estando disponible para otros actores del sector.”

La reacción por parte de Anthropic, por su parte, ha sido tajante. Fuentes internas citadas por TechCrunch aseguran que los directivos de la compañía no están dispuestos a compartir tecnología con su mayor competidor, sobre todo teniendo en cuenta que OpenAI ha adquirido recientemente Windsurf, una startup especializada en herramientas de codificación, lo que refuerza la teoría de que busca reforzar su liderazgo en modelos para desarrollo de software.

¿Qué implica este movimiento?

La ruptura de relaciones entre OpenAI y Anthropic no solo evidencia el creciente conflicto entre las grandes firmas de IA, sino que también pone sobre la mesa el dilema de colaboración versus competencia en un entorno donde las barreras tecnológicas son difusas y la interdependencia entre modelos y herramientas es habitual.

Este tipo de conflictos plantea una pregunta de fondo: ¿cómo regular el uso cruzado de APIs, herramientas y modelos entre competidores directos en un ecosistema aún inmaduro, pero de impacto global?

Además, refuerza la tendencia a la fragmentación del ecosistema de IA, con empresas como OpenAI, Anthropic, Google DeepMind, Mistral, xAI o Cohere trazando sus propias estrategias y cerrando el acceso a competidores. En este contexto, el acceso abierto que dominaba los primeros años de la inteligencia artificial generativa da paso a una nueva era de protección tecnológica y clausulas legales más agresivas.

vía: wccftech

Scroll al inicio