En un movimiento que ha dejado a muchos sorprendidos, se ha revelado que OpenAI ha desarrollado una herramienta de marca de agua que puede detectar si un texto ha sido escrito por ChatGPT con una precisión del 99%. Diseñada para prevenir trampas en tareas escritas, la herramienta, sin embargo, no ha sido lanzada debido a conflictos internos dentro de la empresa.
La herramienta añade una marca de agua invisible al texto generado por ChatGPT, que puede ser detectada cuando se analiza con una herramienta de detección de IA. Esta tecnología evalúa la probabilidad de que el texto haya sido creado con inteligencia artificial.
A pesar de que la herramienta ha estado lista durante un año, OpenAI ha mostrado reticencias en lanzarla. Entre las preocupaciones destacan el temor a estigmatizar las herramientas de escritura de IA para personas que no son hablantes nativos de inglés y la posibilidad de que las marcas de agua sean eliminadas fácilmente por actores malintencionados.
Otro factor de peso es el impacto potencial en el uso de ChatGPT. Según una encuesta interna, un 30% de los usuarios de ChatGPT afirmaron que utilizarían la herramienta menos si se implementara el sistema de marca de agua, lo que podría afectar negativamente a los ingresos de OpenAI.
Actualmente, existen varias herramientas diseñadas para detectar contenido generado por IA. Por ejemplo, Google está probando SynthID, una herramienta de marca de agua que puede detectar texto creado por su IA Gemini. Sin embargo, ninguna ha reportado un nivel de precisión del 99%, lo que posicionaría a la herramienta de OpenAI como el primer sistema fiable para la detección de contenido generado por IA, si se decidiera a lanzarla.
La discusión sobre la implementación de esta tecnología continúa, y mientras tanto, la comunidad educativa y tecnológica espera ansiosa una solución eficaz para mantener la integridad académica y la autenticidad en la producción de contenido.
4o