Meta convierte la moderación en un problema de IA: menos revisores externos, más modelos para detectar fraude y contenido ilegal

Meta ha decidido dar un paso más en la automatización de su maquinaria de seguridad. La compañía anunció el 19 de marzo una nueva etapa en la que la inteligencia artificial dejará de ser solo una herramienta de apoyo para convertirse en la capa principal de detección, filtrado y priorización de contenidos problemáticos en Facebook e Instagram. El objetivo, según la empresa, es mejorar la respuesta frente a estafas, suplantaciones y material ilegal, al tiempo que reduce su dependencia de proveedores externos de moderación.

La clave del cambio no está solo en la reducción de trabajo humano subcontratado, sino en el rediseño de la arquitectura de moderación. Meta afirma que seguirá contando con personas en decisiones de alto riesgo, como apelaciones por cuentas desactivadas o avisos a fuerzas de seguridad, pero deja claro que la revisión manual ya no será la primera línea de defensa. Esa función pasa a sistemas de IA entrenados para operar a una escala muy superior y en una cobertura lingüística que, según la compañía, ya alcanza idiomas hablados por el 98 % de la población conectada.

Para justificar la transición, Meta ofrece varias cifras internas que apuntan a una mejora clara en tareas muy concretas. La empresa asegura que sus nuevos sistemas han conseguido interceptar 5.000 intentos de estafa al día que antes no detectaban, reducir en más de un 80 % determinados reportes sobre suplantación de celebridades, duplicar la detección de contenido de captación sexual de adultos con más de un 60 % menos de errores y rebajar en un 7 % las visualizaciones de anuncios relacionados con estafas y otras infracciones graves.

Visto desde una óptica de inteligencia artificial, lo que Meta está haciendo es bastante significativo. No se trata solo de usar modelos para clasificar mejor imágenes, texto o vídeo, sino de trasladar al terreno de la moderación una lógica cada vez más común en otras áreas tecnológicas: la máquina absorbe el volumen industrial del trabajo y los humanos se concentran en supervisión, evaluación, entrenamiento y excepciones. En otras palabras, la moderación deja de ser principalmente una operación humana asistida por software y pasa a ser un sistema de IA supervisado por humanos.

Ese movimiento encaja además con la transformación que Meta ya inició en 2025. En enero del año pasado anunció su giro hacia una política de “más discurso y menos errores”, eliminó en Estados Unidos su programa de verificación externa de hechos y abrió paso a Community Notes como mecanismo de corrección contextual. Lo presentado ahora es otro escalón dentro de esa misma estrategia: menos intermediación editorial clásica, más automatización y más peso de sistemas escalables.

La dimensión laboral del cambio tampoco es menor. En abril de 2025, Reuters informó de que Telus, contratista de moderación de Meta, recortó alrededor de 2.000 empleos en Barcelona después de que la tecnológica pusiera fin a uno de sus contratos. En aquel momento Meta defendió que no estaba reduciendo sus esfuerzos de moderación, sino reubicando operaciones. A la luz del anuncio actual, aquella decisión parece formar parte de un proceso más amplio: la empresa lleva tiempo preparando una estructura con menos dependencia de moderadores externos y más apoyo en automatización.

Ahora bien, desde la perspectiva de la gobernanza algorítmica, la apuesta también abre interrogantes. El Oversight Board de Meta advirtió en su informe sobre moderación en la era de la IA y la automatización que la mayoría de las decisiones de moderación ya pasan hoy por sistemas automáticos y que esa tendencia solo va a acelerarse. El problema, según el organismo, es que la automatización amplifica errores de diseño, sesgos de entrenamiento y fallos de contexto, especialmente cuando las decisiones se ejecutan con rapidez y con poca supervisión humana directa.

Ese es probablemente el gran punto de fricción para un medio de noticias de inteligencia artificial. Meta puede tener razón cuando sostiene que la IA es más eficaz para bloquear estafas masivas, detectar ciertos patrones ilícitos o trabajar en muchos más idiomas de los que cubre una red humana distribuida. Pero también es cierto que, cuanto más se automatiza la moderación, más importante se vuelve la transparencia sobre cómo fallan esos modelos, en qué categorías se equivocan y qué mecanismos reales tienen los usuarios para corregir decisiones erróneas.

En la práctica, Meta está asumiendo que la IA ya no es solo una herramienta para ayudar a moderar, sino la infraestructura misma de la moderación a escala. Y eso convierte a la empresa en uno de los casos más visibles de una tendencia que probablemente veremos repetirse en todo el sector: la transición desde modelos intensivos en revisión humana hacia plataformas donde los clasificadores, los sistemas de priorización y los motores de riesgo pasan a ocupar el centro del proceso. En fraude y contenido claramente ilegal, esa transición puede mejorar resultados. En contenidos ambiguos, locales o políticamente sensibles, aún está por ver si la máquina sabrá interpretar mejor que quienes hoy quedan desplazados a la periferia del sistema.

Scroll al inicio