OpenAI ha presentado recientemente su nuevo modelo de inteligencia artificial, GPT-4o, diseñado para mejorar las capacidades de su popular chatbot, ChatGPT. Este nuevo modelo puede resolver ecuaciones, contar cuentos antes de dormir y hasta identificar emociones a partir de expresiones faciales. Sin embargo, a medida que sus capacidades se amplían, también lo hacen las preocupaciones sobre la privacidad de los datos.
Los expertos señalan que las avanzadas funciones de GPT-4o incrementan la cantidad de información que OpenAI podría recopilar, lo que genera inquietud sobre la seguridad de los datos personales. Esta preocupación no es nueva para la empresa, que ha tenido un historial irregular en este ámbito. En 2020, se reveló que OpenAI utilizó millones de páginas extraídas de Reddit, libros y otros sitios web para crear su sistema de texto generativo, incluyendo datos personales de los usuarios. Esto provocó, entre otros problemas, una prohibición temporal de ChatGPT en Italia el año pasado.
Poco después del lanzamiento de GPT-4o, se detectó que la aplicación de escritorio para macOS de ChatGPT podría acceder potencialmente a la pantalla del usuario. En julio, la aplicación fue nuevamente criticada cuando se descubrió un problema de seguridad que permitía acceder a chats almacenados en la computadora y leerlos en texto plano. Aunque OpenAI lanzó rápidamente una actualización para cifrar los chats, el nivel de escrutinio sobre la empresa y GPT-4o sigue siendo alto.
Política de privacidad de OpenAI
La política de privacidad de OpenAI muestra una amplia recopilación de datos, incluyendo información personal, datos de uso y contenido proporcionado por los usuarios. ChatGPT utiliza estos datos para entrenar sus modelos, a menos que se desactive esta opción en la configuración o se utilice la versión empresarial.
Angus Allan, gerente de productos senior en la consultora digital CreateFuture, señala que la política de privacidad de OpenAI explícitamente menciona la recopilación de todos los datos de entrada de los usuarios y se reserva el derecho de entrenar sus modelos con esta información. «Es un aspirador de datos con esteroides, y todo está ahí, en blanco y negro», afirma Allan.
Además, ChatGPT recopila muchos otros datos sobre los usuarios, incluyendo direcciones de correo electrónico, números de teléfono, datos de geolocalización, actividad de red y detalles del dispositivo utilizado. Jules Love, fundador de la consultora Spark, comenta que estos datos se utilizan para entrenar el modelo de IA y mejorar sus respuestas, pero los términos permiten a OpenAI compartir información personal con afiliados, vendedores, proveedores de servicios y fuerzas de seguridad. «Es difícil saber dónde terminarán sus datos», advierte Love.
Controles de privacidad
Desde su lanzamiento en 2020, OpenAI ha implementado herramientas y controles para proteger la privacidad de los usuarios. La empresa asegura que no busca información personal para entrenar sus modelos y no utiliza información pública en Internet para crear perfiles sobre personas o vender datos de usuarios.
Rob Cobley, socio comercial de la firma de abogados Harper James, destaca que OpenAI ha mejorado la transparencia sobre la recopilación y uso de datos, ofreciendo a los usuarios opciones claras para gestionar su configuración de privacidad. «Los usuarios pueden acceder, actualizar y eliminar su información personal, lo que garantiza que tienen control sobre los datos», dice Cobley.
Allan recomienda a los usuarios cancelar la suscripción al entrenamiento de modelos lo antes posible. «Esto no elimina su contenido de la plataforma, pero significa que no se puede usar para entrenar modelos futuros, donde existe un riesgo teórico de que sus datos se filtren», explica.
En resumen, aunque OpenAI ha dado pasos para mejorar la protección de los datos, la creciente sofisticación de sus modelos de IA y la amplitud de datos que recopilan siguen generando preocupaciones significativas sobre la privacidad.