Sam Altman, CEO de OpenAI, ha hecho público un texto en el que explica los principios que guiarán a la compañía frente a uno de los dilemas más sensibles de la inteligencia artificial: cómo proteger la privacidad de los usuarios, garantizar la libertad de los adultos y, al mismo tiempo, salvaguardar a los adolescentes en sus interacciones con modelos como ChatGPT.
Privacidad: conversaciones con IA como información privilegiada
Altman subraya que las conversaciones con un modelo de IA pueden ser “una de las cuentas más sensibles que jamás tendrás”, ya que los usuarios comparten cuestiones personales, de salud o legales. Por ello, OpenAI quiere que los diálogos con la IA se consideren tan confidenciales como la información compartida con un médico o un abogado.
La empresa afirma estar trabajando en sistemas de seguridad avanzados para que incluso sus empleados no puedan acceder a esos datos, salvo en circunstancias críticas. Entre las excepciones contempladas:
- Amenazas a la vida del propio usuario o de terceros.
- Planes de causar daños a gran escala, como un ciberataque.
- Prevención de abusos graves detectados por sistemas automáticos.
La idea es encontrar un equilibrio entre la protección de datos y la necesidad de actuar ante riesgos sociales de alto impacto.
Libertad: tratar a los adultos como adultos
El segundo principio que marca OpenAI es la libertad de los usuarios adultos. Altman sostiene que, siempre que no implique causar daño, los modelos deben responder de la manera que los usuarios desean.
- Ejemplo positivo: un adulto que busca ayuda para escribir una historia de ficción sobre un suicidio debe recibir asistencia creativa, aunque el modelo no ofrezca instrucciones sobre cómo quitarse la vida en la práctica.
- Ejemplo restringido: el modelo no debe entablar conversaciones abiertamente coquetas por defecto, pero sí si un adulto lo pide explícitamente.
El lema interno es claro: “Tratar a los adultos como adultos”, ampliando la libertad de uso en la medida en que no choque con la seguridad o los derechos de otros.
Seguridad de adolescentes: prioridad absoluta
El tercer principio se centra en los menores de 18 años, para quienes OpenAI antepone la seguridad sobre la privacidad y la libertad.
Las medidas anunciadas incluyen:
- Sistema de predicción de edad: basado en patrones de uso, el modelo intentará estimar si un usuario es menor de edad. En caso de duda, se aplicará la experiencia restringida.
- Verificación de identidad en algunos países: podría solicitarse un documento de identidad, algo que Altman reconoce como una concesión de privacidad para los adultos, pero necesaria para proteger a los menores.
- Reglas específicas para adolescentes:
- Prohibición de conversaciones de tono sexual o coqueteo.
- Exclusión de contenidos relacionados con suicidio o autolesiones, incluso en contextos de escritura creativa.
- Protocolos de emergencia: si un usuario menor de 18 años manifiesta ideación suicida, la plataforma intentará contactar con sus padres y, en caso de no lograrlo, dará aviso a las autoridades para evitar un daño inminente.
Un dilema abierto
Altman reconoce que estos principios entran en conflicto y que no todos estarán de acuerdo con la manera en que OpenAI los equilibra. “Son decisiones difíciles, pero tras hablar con expertos creemos que es lo mejor y queremos ser transparentes en nuestras intenciones”, afirmó.
En resumen, la compañía propone una jerarquía de prioridades:
- Privacidad, como derecho fundamental y protección de datos sensibles.
- Libertad, especialmente para adultos que buscan usar la IA a su manera.
- Seguridad de adolescentes, que prevalece sobre las dos anteriores en contextos de riesgo.
Preguntas frecuentes
¿Qué hará OpenAI si detecta un caso de riesgo vital en un adulto?
La empresa contempla excepciones donde puede intervenir, como amenazas a la vida o planes de ciberataques, siempre bajo protocolos de seguridad críticos.
¿Cómo funcionará el sistema de predicción de edad?
Analizará patrones de uso y lenguaje para estimar si el usuario es menor de 18 años. En caso de duda, se aplicará automáticamente la experiencia restringida para adolescentes.
¿Qué diferencia habrá entre la experiencia de adultos y adolescentes en ChatGPT?
Los adultos tendrán mayor libertad de interacción (por ejemplo, ficción sensible o tono coqueto bajo petición), mientras que los adolescentes estarán protegidos de ese tipo de contenidos y con protocolos de seguridad más estrictos.
¿Qué postura defiende OpenAI sobre privacidad?
Que las conversaciones con IA deben recibir un estatus similar al de las comunicaciones con profesionales médicos o legales: información privilegiada y altamente protegida.
vía: openai