Italia bloquea el acceso a ChatGPT por presunta violación de protección de datos

Italia ha bloqueado de manera inmediata el acceso a ChatGPT, un popular chatbot de inteligencia artificial (IA) desarrollado por OpenAI, en medio de una investigación por presunta violación de las normas de recopilación de datos. La agencia de protección de datos italiana ha emitido un comunicado en el que señala a la aplicación, que cuenta con el apoyo financiero de Microsoft, de no verificar la edad de sus usuarios.

Según el regulador, los menores de 13 años no deberían tener acceso al sistema conversacional de ChatGPT, pero existe la sospecha de que esta restricción no se está aplicando correctamente. La autoridad italiana ha expresado su preocupación por la falta de información proporcionada a los usuarios y a todas las partes interesadas cuyos datos recopila OpenAI, así como por la ausencia de una base jurídica que justifique la recopilación y almacenamiento masivo de datos personales con el propósito de «entrenar» los algoritmos que sustentan el funcionamiento de la plataforma.

OpenAI, una empresa estadounidense que no cuenta con oficinas en la Unión Europea (UE), tiene un plazo de hasta 20 días para informar sobre las medidas que tomará para cumplir con las solicitudes de las autoridades italianas. Si no cumple con la legislación europea, la compañía podría enfrentarse a una multa de hasta 20 millones de euros o hasta el 4% de su volumen de negocios anual global, según el comunicado del regulador.

El bloqueo de ChatGPT en Italia pone de manifiesto la creciente preocupación por la protección de datos y la privacidad de los usuarios en el ámbito de las tecnologías de IA. A medida que estas aplicaciones se vuelven más avanzadas y ubicuas, es probable que los reguladores sigan adoptando medidas para garantizar que las empresas cumplan con las normativas y protejan los derechos de los ciudadanos.

Polémica por el uso de ChatGPT y supuesta violación de derechos de autor en fuentes de datos

La popular herramienta de inteligencia artificial ChatGPT, desarrollada por OpenAI, ha generado controversia por presuntas violaciones de derechos de autor en relación con las fuentes de datos utilizadas para su entrenamiento. Se alega que ChatGPT podría haber utilizado materiales protegidos por derechos de autor en su proceso de aprendizaje, lo que plantea preocupaciones sobre la propiedad intelectual y el respeto a las leyes de copyright.

La polémica ha llevado a cuestionamientos sobre la responsabilidad de las empresas de tecnología en el uso de materiales protegidos y cómo estos pueden verse reflejados en las respuestas generadas por la IA. Además, se suma a la creciente preocupación por la protección de datos y la privacidad de los usuarios en el ámbito de las tecnologías de inteligencia artificial.

Estas controversias destacan la necesidad de una mayor supervisión y regulación en el desarrollo y despliegue de sistemas de IA, así como la importancia de garantizar que las empresas respeten las leyes de propiedad intelectual y protección de datos en el proceso de creación y utilización de estas herramientas.

Scroll al inicio