La Inteligencia Artificial al servicio de la censura: una filtración revela el sistema de represión digital de China

Según una investigación exclusiva publicada por TechCrunch, el gobierno chino estaría utilizando modelos de lenguaje avanzados para censurar masivamente contenidos en internet, ampliando el control sobre la disidencia online.

Una nueva filtración revelada por TechCrunch ha sacado a la luz una herramienta inquietante: un sistema de censura automatizada basado en Inteligencia Artificial desarrollado en China. La base de datos filtrada —que contiene más de 133.000 ejemplos de textos— muestra cómo un modelo de lenguaje similar a los utilizados por asistentes conversacionales como ChatGPT está siendo entrenado para identificar y suprimir cualquier contenido considerado «sensible» por las autoridades del país asiático.

Un sistema entrenado para detectar disidencia

El conjunto de datos descubierto por el investigador de seguridad conocido como NetAskari se encontraba en un servidor abierto de Baidu, aunque no hay pruebas de que esta empresa esté directamente implicada en el desarrollo del sistema. Lo que sí está claro, según TechCrunch y expertos como Xiao Qiang de la Universidad de Berkeley, es que el objetivo del modelo es claro: censura política automatizada a gran escala.

A diferencia de los métodos tradicionales de censura —como el filtrado por palabras clave o la supervisión humana— este modelo de IA permite identificar críticas sutiles, analogías históricas o comentarios indirectos contra el gobierno, figuras políticas, el ejército o temas sensibles como Taiwán, pobreza rural, corrupción o protestas sociales.

Entre los ejemplos utilizados para entrenar el modelo se encuentran quejas sobre policías corruptos extorsionando a empresarios, reportajes sobre expulsiones de funcionarios del Partido Comunista por corrupción, e incluso frases proverbiales chinas que podrían interpretarse como metáforas de disidencia política.

El control del relato a través de la IA

El término “trabajo de opinión pública” que aparece en los documentos filtrados indica que el proyecto podría estar vinculado con la Administración del Ciberespacio de China (CAC), el principal organismo regulador de internet en el país. Según Michael Caster, director de programas de la organización Article 19, este tipo de programas tiene como finalidad garantizar que las narrativas oficiales del Estado prevalezcan en el entorno digital, mientras que cualquier versión alternativa es suprimida de inmediato.

En palabras de Qiang, investigador de Berkeley: “Un modelo de lenguaje entrenado con estos datos permitiría una censura estatal mucho más eficiente y granular”. Esto supondría un salto cualitativo respecto a los sistemas actuales, que bloquean términos concretos como “masacre de Tiananmen” o “Xi Jinping”, pero son menos eficaces contra críticas más implícitas o irónicas.

Preocupación internacional por el uso autoritario de la IA

El informe de TechCrunch refuerza las sospechas que ya había levantado un reciente informe de OpenAI, en el que se identificaba el uso de modelos generativos por parte de actores vinculados al gobierno chino para rastrear publicaciones críticas en redes sociales y generar contenidos para desacreditar a disidentes como Cai Xia.

A medida que modelos chinos como DeepSeek ganan notoriedad, los expertos alertan de que la IA también puede ser utilizada para reforzar el control estatal y sofocar la libertad de expresión. Y si bien China lidera este tipo de usos represivos, no es la única potencia interesada en utilizar la Inteligencia Artificial para la vigilancia y la propaganda.

Este caso plantea serias preguntas éticas sobre el desarrollo y uso de tecnologías avanzadas, especialmente cuando están al alcance de regímenes autoritarios. Y demuestra, una vez más, que el futuro de la IA no solo se juega en los laboratorios o en las aplicaciones móviles, sino también en el ámbito de los derechos humanos y las libertades fundamentales.

Scroll al inicio