Google y Anthropic: el supuesto uso de Claude para mejorar Gemini

Recientes informes han sugerido que Google podría estar utilizando el chatbot Claude, desarrollado por Anthropic, para mejorar el rendimiento de su propio modelo de inteligencia artificial, Gemini. Según fuentes, contratistas de Google estarían evaluando las respuestas de ambos modelos en paralelo, comparándolas para determinar cuál ofrece mejores resultados.


Evaluaciones paralelas de Claude y Gemini

De acuerdo con los informes, los contratistas de Google reciben respuestas generadas por ambos modelos basadas en un mismo prompt y disponen de 30 minutos para evaluarlas. Durante este tiempo, se califican aspectos como la veracidad, la precisión y el nivel de detalle (verbosity), determinando cuál de las respuestas es superior.

Sin embargo, los contratistas no sabían inicialmente que estaban comparando a Gemini con Claude. Esto se hizo evidente cuando comenzaron a notar referencias explícitas, como «Soy Claude, creado por Anthropic», en algunas respuestas evaluadas.


Las diferencias en configuración de seguridad

Uno de los hallazgos clave de estas evaluaciones es que Claude tiene configuraciones de seguridad más estrictas que Gemini. El modelo de Anthropic se niega a responder a solicitudes que considera «inseguras», mientras que Gemini, en algunos casos, lo hacía, lo que fue señalado como una grave violación de seguridad.

Esto destaca un aspecto crítico en la competencia entre modelos de IA: encontrar un equilibrio entre capacidades avanzadas y la adherencia a políticas de seguridad robustas.


¿Está Google infringiendo los términos de uso de Claude?

Anthropic, en sus términos de uso, prohíbe explícitamente utilizar Claude para «desarrollar productos o servicios competidores» o «entrenar modelos de IA competidores» sin aprobación previa. Sin embargo, dado que Google es uno de los principales inversores en Anthropic, no está claro si esta restricción aplica también a la empresa.

Google ha negado categóricamente cualquier uso de Claude para entrenar a Gemini, declarando que «cualquier sugerencia de que hemos usado modelos de Anthropic para entrenar a Gemini es inexacta». Sin embargo, la compañía no ha confirmado ni desmentido si obtuvo permiso para realizar las comparaciones señaladas.


Tensiones en la colaboración y competencia

Este caso subraya las tensiones inherentes a las colaboraciones entre gigantes tecnológicos que, al mismo tiempo, son competidores directos en el desarrollo de IA. La relación entre Google y Anthropic es particularmente compleja: mientras Google actúa como inversor estratégico, ambas empresas compiten por liderar el mercado de la inteligencia artificial generativa.

El uso de herramientas como Claude para evaluar y posiblemente influir en la evolución de Gemini plantea preguntas éticas y regulatorias que podrían definir cómo se desarrollan las colaboraciones en el sector.


Conclusión

Si bien no está claro si Google está infringiendo los términos de uso de Claude, las revelaciones destacan el creciente escrutinio sobre cómo los grandes actores tecnológicos manejan sus estrategias de innovación en IA. Con Gemini y Claude compitiendo directamente, este caso podría ser un precedente importante en la regulación y la transparencia de las prácticas en el desarrollo de inteligencia artificial avanzada.

Scroll al inicio