microsoft ia security still02

Microsoft lleva a los tribunales a una red global que generaba deepfakes sexuales: así fue la caza de “Storm-2139” y las lecciones para la seguridad de la IA

Microsoft ha lanzado su primer gran caso legal para frenar a quienes usan la IA con fines abusivos. La compañía ha identificado y denunciado ante un tribunal federal de EE. UU. a Storm-2139, una red de al menos seis desarrolladores y diez usuarios que, según la demanda, robaban credenciales de clientes (claves de API) y eludían las salvaguardas de servicios de generación de imágenes —incluido Azure OpenAI Service— para crear imágenes sexualizadas y violentas de celebridades, mujeres y personas racializadas. El caso, presentado en el Distrito Este de Virginia, marca un punto de inflexión: el paso de la respuesta técnica

Machine learning

Infraestructura

General

Noticias

Notas de prensa

Scroll al inicio