OpenAI refuerza la lucha contra el uso malicioso de la IA con nuevas investigaciones sobre amenazas globales

OpenAI ha publicado un nuevo informe detallando cómo su tecnología ha sido utilizada de manera maliciosa por actores estatales y cibercriminales, y las medidas que ha tomado para interrumpir estas actividades. El documento analiza tendencias recientes en operaciones de desinformación, estafas financieras y ciberataques, así como casos específicos de uso indebido de sus modelos de inteligencia artificial.

La IA como arma en operaciones de influencia y desinformación

Uno de los hallazgos clave del informe es el uso de modelos de OpenAI en operaciones de influencia encubierta. En dos casos identificados, actores vinculados a China emplearon IA para generar comentarios en redes sociales y artículos de opinión en español con mensajes críticos contra Estados Unidos, los cuales fueron publicados en medios de América Latina.

En el caso denominado “Sponsored Discontent”, se detectó una red de cuentas que utilizaban ChatGPT para generar artículos con narrativas antiestadounidenses en medios de Perú, México y Ecuador. OpenAI concluyó que se trata de la primera vez que un actor vinculado a China ha logrado insertar contenido generado por IA en medios convencionales de la región.

Otro caso destacado, llamado “Peer Review”, expone el uso de modelos de IA en un supuesto sistema de vigilancia de redes sociales destinado a monitorear manifestaciones en Occidente y reportarlas a las autoridades chinas. Se identificó que estos actores utilizaban IA para analizar documentos, traducir capturas de pantalla de protestas en favor de los derechos de los uigures y depurar código de una herramienta de monitoreo social.

Fraudes financieros y esquemas de empleo falsos

El informe también revela que la inteligencia artificial ha sido empleada en estafas de contratación fraudulentas y fraudes amorosos.

En un caso vinculado a operaciones originadas en Corea del Norte, los atacantes utilizaron IA para crear perfiles falsos en LinkedIn, generar respuestas en entrevistas de trabajo e incluso elaborar estrategias para evitar sospechas durante el empleo. Este esquema buscaba obtener empleos en empresas tecnológicas occidentales para canalizar ingresos hacia el régimen norcoreano.

Otro caso, apodado “Pig Butchering”, describe cómo una red con sede en Camboya usaba ChatGPT para traducir y generar mensajes en estafas románticas dirigidas a usuarios de Facebook, X, Instagram y LINE. Estos mensajes, diseñados para ganarse la confianza de las víctimas, derivaban en fraudes de inversión en criptomonedas y forex.

Ciberamenazas y espionaje digital

El informe también detalla cómo actores maliciosos han utilizado IA en actividades de ciberintrusión. Se identificaron grupos vinculados a Corea del Norte que usaban modelos de OpenAI para depurar código de herramientas de hacking y desarrollar métodos de acceso remoto no autorizado.

En una operación de influencia vinculada a Irán, OpenAI detectó que varios actores utilizaban ChatGPT para generar contenidos propagandísticos en redes sociales y medios digitales en árabe, francés y español. Estos contenidos estaban dirigidos a promover una imagen positiva del régimen iraní y atacar a sus adversarios geopolíticos.

Colaboración con la industria y gobiernos

OpenAI enfatiza que la detección y mitigación de estos abusos ha sido posible gracias a la colaboración con la industria y gobiernos aliados. En algunos casos, se han compartido hallazgos con plataformas como Meta y empresas de ciberseguridad para ampliar la capacidad de detección y mitigación de amenazas.

«Los actores maliciosos seguirán intentando aprovechar la inteligencia artificial para sus propósitos, pero estamos comprometidos a identificar, prevenir y exponer estos abusos para garantizar que la IA beneficie a toda la humanidad,» señaló el equipo de OpenAI en el informe.

Un desafío en constante evolución

OpenAI reconoce que la amenaza del uso indebido de la IA seguirá evolucionando, por lo que seguirá invirtiendo en herramientas de detección, reforzando sus políticas de uso y colaborando con organismos internacionales para frenar el abuso de sus modelos.

El informe completo puede consultarse en OpenAI Global Affairs o una copia a continuación:

vía: OpenAI

Scroll al inicio