En un giro preocupante dentro de la industria tecnológica, Shane Jones, un ingeniero de inteligencia artificial (IA) de Microsoft, ha levantado la voz sobre los peligros potenciales asociados con el modelo de IA Copilot Designer, basado en DALL·E 3 de OpenAI. Jones ha emitido una alerta tanto a la Comisión Federal de Comercio de Estados Unidos (FTC) como al consejo de Microsoft, enfatizando la capacidad de este software para generar contenido inapropiado, como la sexualización de mujeres en situaciones tan inocuas como un «accidente de coche».
La denuncia de Jones destaca la presencia de graves fallas en DALL·E 3 y Copilot Designer, señalando que estas herramientas no solo pueden generar imágenes perjudiciales, sino que también existen vulnerabilidades de seguridad significativas. Además, Jones acusa a los departamentos jurídicos y externos de Microsoft (CELA) de intentar silenciar sus advertencias, lo que le llevó a hacer pública su preocupación a través de una carta abierta, instando a una mayor protección contra los riesgos de la IA.
La reacción de Microsoft y OpenAI ante las acusaciones de Jones ha sido variada, desde solicitudes para que retire sus publicaciones en LinkedIn hasta una aparente inacción frente a los problemas de generación de contenido señalados. Este caso subraya los retos a los que se enfrentan los denunciantes dentro de la industria tecnológica y resalta la necesidad de canales más transparentes y efectivos para plantear y solucionar preocupaciones éticas en el desarrollo de la IA.
La iniciativa de Jones de abordar sus inquietudes, que van desde informar internamente dentro de Microsoft hasta contactar con senadores estadounidenses y la FTC, ilustra el impacto potencial que las acciones individuales pueden tener en la promoción de una comprensión más amplia y la reevaluación de los estándares de ética y seguridad en la IA.
Este episodio ha desencadenado un debate más amplio sobre la necesidad de supervisión regulatoria y el establecimiento de normas claras y aplicables para la tecnología de IA, subrayando la urgencia de abordar estos problemas críticos para prevenir daños y garantizar el desarrollo responsable de la inteligencia artificial.
