OpenAI introduce controles parentales en ChatGPT tras la polémica por la presunta implicación en el suicidio de un menor

OpenAI ha anunciado la implementación de controles parentales en ChatGPT, en el marco de una estrategia para reforzar la seguridad de adolescentes y jóvenes que utilizan la herramienta. La medida llega después de que la compañía enfrentara críticas y una demanda por la supuesta implicación de su sistema en el suicidio de un menor, un caso que ha reavivado el debate sobre la relación entre inteligencia artificial, salud mental y responsabilidad corporativa.


Un plan de 120 días para reforzar la seguridad

La empresa estadounidense detalló que durante los próximos 120 días desplegará mejoras en varias áreas críticas:

  • Ampliar las intervenciones para personas en crisis.
  • Facilitar el acceso a servicios de emergencia y expertos en salud.
  • Permitir conexiones con contactos de confianza.
  • Fortalecer las protecciones específicas para adolescentes.

Parte de estas funciones, según OpenAI, estarán disponibles de manera inmediata, mientras que otras se irán implementando progresivamente a lo largo del año.


El papel de los expertos

OpenAI subrayó que está trabajando con un Consejo de Expertos en Bienestar e IA, integrado por profesionales en salud mental, desarrollo juvenil e interacción persona-máquina. Su rol es definir estándares basados en evidencia científica que guíen el diseño de nuevas salvaguardas, incluidas futuras versiones de los controles parentales.

A la par, la compañía ha consolidado una Red Global de Médicos, con más de 250 profesionales en 60 países, entre los que se cuentan psiquiatras, pediatras y médicos de familia. Más de 90 especialistas de 30 países ya han participado en las pruebas de seguridad y en el diseño de protocolos de respuesta de los modelos en contextos de salud mental.


Modelos de razonamiento para momentos sensibles

Uno de los cambios más relevantes es la introducción de un “router en tiempo real” que determina qué modelo de ChatGPT responde en función del contexto. En situaciones de angustia aguda o riesgo emocional, el sistema derivará automáticamente la conversación a un modelo de razonamiento avanzado (como GPT-5-thinking), diseñado para ofrecer respuestas más cuidadosas y útiles que los modelos estándar.


Nuevos controles parentales

La compañía presentó además un conjunto de funciones para que las familias gestionen el uso de ChatGPT en adolescentes mayores de 13 años:

  • Vinculación de cuentas: los padres podrán enlazar su cuenta con la de su hijo/a mediante una invitación por correo electrónico.
  • Comportamiento adaptado por edad: el sistema aplicará por defecto reglas de respuesta ajustadas a la etapa de desarrollo del adolescente.
  • Gestión de funciones: los padres podrán desactivar características como la memoria o el historial de conversaciones.
  • Alertas de crisis: recibirán notificaciones si el sistema detecta que el menor atraviesa un momento de angustia severa, con protocolos guiados por expertos para no quebrar la confianza entre padres e hijos.

Estos controles se suman a funciones ya disponibles para todos los usuarios, como los recordatorios para hacer pausas durante sesiones largas.


Un debate abierto sobre responsabilidad y bienestar digital

El anuncio de OpenAI refleja la creciente presión social y legal sobre las grandes tecnológicas para proteger a los menores en entornos digitales impulsados por IA. El caso del menor fallecido ha puesto en el centro la necesidad de protocolos de intervención más sólidos y de herramientas que permitan a las familias establecer límites saludables en el uso de la inteligencia artificial.

La compañía reconoce que estas medidas son “solo el principio” y que seguirá aprendiendo y ajustando su estrategia con el apoyo de la comunidad científica y médica.


Conclusión

La introducción de controles parentales y salvaguardas adicionales en ChatGPT es un paso significativo para OpenAI, que busca demostrar responsabilidad social en el despliegue de sus modelos. Si bien las medidas llegan en un contexto de polémica y litigios, marcan un precedente importante sobre cómo las plataformas de IA pueden y deben adaptarse a las necesidades de bienestar y seguridad de los usuarios más jóvenes.

El éxito de estas iniciativas dependerá de su eficacia técnica, de la confianza de los padres y de la capacidad de la empresa para equilibrar innovación, privacidad y protección de la salud mental.


Preguntas frecuentes (FAQ)

¿A partir de qué edad podrán usarse las cuentas vinculadas con controles parentales?
Los controles estarán disponibles para adolescentes a partir de los 13 años, en línea con las políticas de uso mínimo de ChatGPT.

Qué funciones podrán gestionar los padres?
Podrán desactivar la memoria del sistema, el historial de chats y aplicar reglas de comportamiento adaptadas a la edad del menor.

Cómo detecta ChatGPT señales de crisis emocional?
El sistema utiliza algoritmos entrenados con la supervisión de expertos en salud mental, capaces de identificar patrones de angustia o riesgo en el lenguaje utilizado por el usuario.

Esto significa que ChatGPT sustituye la atención médica?
No. OpenAI aclara que las intervenciones son de apoyo, y que el sistema está diseñado para facilitar el acceso a ayuda profesional, no para reemplazarla.

Scroll al inicio