OpenAI Explora la Generación Responsable de Contenido Adulto con Inteligencia Artificial

En un giro que podría marcar un antes y un después en la industria de la inteligencia artificial, OpenAI ha anunciado esta semana que está explorando formas de incorporar de manera responsable la generación de contenido pornográfico mediante inteligencia artificial. Este anuncio forma parte de una actualización de su política para contenido no apto para todos los públicos (NSFW, por sus siglas en inglés), la cual busca abrir un debate sobre los límites y posibilidades de sus productos de IA, según reveló Joanne Jang, miembro del equipo de producto de OpenAI, a NPR.

El potencial de la inteligencia artificial para crear expresiones artísticas adultas legítimas, que podrían ser facilitadas por herramientas impulsadas por IA, está en el centro de esta nueva política. Sin embargo, la controversia no se ha hecho esperar, ya que este campo presenta no solo oportunidades, sino también significativos desafíos éticos y técnicos.

OpenAI ya ha mostrado su disposición a explorar territorios polémicos anteriormente. A principios de año, Mira Murati, directora técnica de la compañía, expresó en una entrevista con The Wall Street Journal su incertidumbre sobre si permitirían eventualmente que su herramienta de generación de video, Sora, se utilizara para crear contenido adulto.

La integración de la pornografía generada por IA plantea varias cuestiones problemáticas, especialmente relacionadas con los derechos de los creadores. Los modelos de OpenAI han sido entrenados con enormes cantidades de contenido web público, parte del cual es indudablemente pornográfico. Este entrenamiento se ha realizado sin licenciar todo el contenido o permitir que los creadores opten por no participar hasta hace relativamente poco tiempo, y aún así, solo en formas específicas de entrenamiento.

Además, la competencia que enfrentarían los creadores de contenido para adultos podría intensificarse si OpenAI generaliza la pornografía generada por IA, basándose en las obras de esos mismos creadores.

Otro problema considerable es la falibilidad de las medidas de seguridad actuales. A pesar de años de refinamiento en herramientas de filtrado y moderación, los usuarios continúan encontrando maneras de manipular los modelos de IA para abusar de estas tecnologías. Recientemente, Microsoft tuvo que modificar su herramienta de creación de imágenes Designer, que utiliza modelos de OpenAI, después de que los usuarios descubrieran cómo crear imágenes desnudas de celebridades como Taylor Swift.

Además, el abuso sexual a través de la IA ya es una realidad, con estudiantes utilizando aplicaciones potenciadas por IA para «desnudar» fotos de compañeros sin su consentimiento. Este tipo de incidentes plantea desafíos legales y éticos significativos en un ámbito que ya lucha por combatir crímenes sexuales eficazmente.

En este contexto de rápido avance tecnológico y complejidad regulativa, el enfoque que OpenAI decida tomar respecto al contenido pornográfico generado por IA estará repleto de riesgos. Es posible que la compañía reconsidere su posición, o tal vez, contra todo pronóstico, encuentre una manera más segura de proceder. De cualquier manera, parece que descubriremos el resultado más pronto que tarde.

Fuente: TechCrunch

Scroll al inicio