Controversia en torno a NUCA, la cámara IA que «desnuda» a las personas

En el mundo de la tecnología, donde la innovación suele ser recibida con entusiasmo, un nuevo dispositivo está causando más inquietud que celebración. Se trata de NUCA, una cámara alimentada por inteligencia artificial que promete capturar a las personas «en su forma más pura» —es decir, completamente desnudas. Este concepto, que evoca las fantasías de visión de rayos X al estilo Superman, ha generado un intenso debate sobre los límites de la privacidad y la ética en el uso de la inteligencia artificial.

Desarrollado por los artistas Mathias Vef y Benedikt Groß, NUCA no es un producto comercial tradicional, sino un proyecto de diseño especulativo que busca cuestionar y explorar las implicaciones de las tecnologías generativas de IA en la representación del cuerpo humano. A diferencia de los deepfakes tradicionales que operan en el anonimato de internet, NUCA vincula físicamente al creador con el sujeto, mostrando los resultados de manera inmediata, lo que pone en juego la privacidad de manera directa y palpable.

El dispositivo, un prototipo impreso en 3D con una lente gran angular de 37 mm, utiliza un proceso generativo para estimar la representación desnuda natural de la persona fotografiada. Este proceso se basa en múltiples identificadores como género, edad, etnicidad, expresión y forma del cuerpo, que luego son utilizados para generar una imagen base mediante un prompt de IA de texto a imagen. Esta imagen base es posteriormente individualizada incorporando el rostro y la pose de la persona.

Aunque NUCA se presenta en un contexto de beta privada y no pretende ser usado de manera incontrolada, ha desatado una serie de reacciones adversas. Los críticos temen que este tipo de tecnología profundice problemas ya existentes como el sesgo de IA y la explotación de la imagen corporal, mientras que otros ven en ella una celebración potencial de la belleza y forma humana natural.

Este proyecto también ha resurgido preocupaciones sobre la explosión de la imaginería sexual no consensual, como lo destacan Emanuel Maiberg y Samantha Cole, apuntando a una nueva forma de pornografía donde «los humanos solo son un recuerdo copiado y remezclado para generar instantáneamente cualquier imagen sexual que un usuario pueda describir con palabras».

NUCA se presenta así no solo como una exploración tecnológica, sino como un punto de partida crucial para discutir y reconsiderar la trayectoria futura del uso de la IA en la representación y percepción de nuestros cuerpos. Con debates en curso sobre el consentimiento, la equidad algorítmica y los impactos sociales de las imágenes generadas por IA, el caso de NUCA subraya la necesidad urgente de una reflexión profunda y normativas más robustas en el campo de la inteligencia artificial y la ética digital.

Más información en la página del proyecto NUCA.

Últimos artículos

Scroll al inicio