OpenAI ha presentado Privacy Filter, un modelo abierto pensado para detectar y enmascarar información personal identificable en texto antes de que ese contenido entre en otros sistemas de IA, en motores de búsqueda internos o en pipelines de datos. La compañía lo define como un modelo de clasificación de tokens orientado a flujos de saneamiento de datos de alto rendimiento y diseñado para ejecutarse en local, sin necesidad de enviar el texto a la nube. La publicación se ha hecho bajo licencia Apache 2.0 y el modelo ya está disponible en Hugging Face y en GitHub.
La novedad llega en un momento especialmente sensible para las empresas que están desplegando asistentes, sistemas RAG, bases vectoriales o herramientas internas basadas en modelos de lenguaje. En todos esos escenarios aparece el mismo problema: antes de indexar, registrar o reutilizar texto, conviene detectar si contiene nombres privados, teléfonos, correos, números de cuenta o secretos como contraseñas y claves API. OpenAI intenta cubrir justo ese hueco con una herramienta más especializada que un gran modelo generativo y, sobre todo, más fácil de ejecutar dentro del perímetro corporativo.
Privacy Filter no es un LLM al uso que redacta o responde, sino un sistema bidireccional de token classification con decodificación de spans. En la práctica, eso significa que analiza una secuencia completa de una sola pasada, etiqueta los fragmentos sensibles y devuelve un resultado listo para ocultar o bloquear información antes de que siga circulando. OpenAI sostiene que ese diseño mejora el rendimiento en entornos de producción frente a enfoques más pesados o más lentos basados en generación token a token.
Uno de los puntos que más ha llamado la atención es su tamaño. Según la ficha publicada por OpenAI, el modelo cuenta con 1.500 millones de parámetros totales y 50 millones de parámetros activos, una combinación que, sobre el papel, le permite funcionar en un navegador web o en un portátil. También admite una ventana de contexto de 128.000 tokens, lo que facilita procesar documentos largos sin trocearlos en fragmentos pequeños. En un momento en que muchas soluciones de privacidad se apoyan en infraestructuras más pesadas o en servicios externos, esa ligereza es uno de sus argumentos más claros.
Qué tipo de datos puede detectar
OpenAI ha definido una taxonomía cerrada de ocho categorías de datos sensibles: account_number, private_address, private_email, private_person, private_phone, private_url, private_date y secret. Esta última categoría incluye, entre otras cosas, contraseñas, credenciales o claves que no deberían acabar en registros, sistemas de recuperación documental o bases de datos vectoriales. La salida del modelo no se limita a marcar una palabra aislada, sino que usa un esquema BIOES para delimitar de forma coherente el principio y el final de cada fragmento sensible.
Ese enfoque puede resultar especialmente útil en despliegues reales donde el texto no llega limpio ni estructurado. OpenAI explica que Privacy Filter está orientado a documentos largos, cadenas mixtas, texto conversacional y casos donde la decisión correcta depende del contexto. Es decir, no se queda solo en encontrar patrones rígidos como un número con forma de teléfono, sino que intenta distinguir cuándo una referencia apunta a una persona privada y cuándo forma parte de información pública que no debería enmascararse.
En rendimiento, la compañía afirma que el modelo logra un 96 % de F1 en el benchmark PII-Masking-300k, con un 94,04 % de precisión y un 98,04 % de recall. Además, OpenAI asegura que, tras corregir problemas de anotación detectados en ese conjunto de datos durante su revisión, la puntuación sube a 97,43 % de F1. También sostiene que el ajuste fino con pequeñas cantidades de datos específicos puede mejorar mucho el resultado en dominios concretos. Son cifras prometedoras, aunque conviene recordar que proceden de la propia evaluación del fabricante y que su comportamiento real dependerá del tipo de texto, del idioma y del contexto de despliegue.
El matiz clave: no es anonimización total ni garantía de cumplimiento
Aquí está probablemente la parte más importante del anuncio. OpenAI insiste tanto en su página oficial como en la ficha del modelo en que Privacy Filter es una ayuda para redacción y minimización de datos, pero no es una herramienta de anonimización, no certifica cumplimiento normativo y no ofrece una garantía de seguridad por sí sola. La empresa recomienda usarlo como una capa más dentro de una estrategia de privacy by design, no como una solución definitiva que permita asumir que todo el riesgo ha desaparecido.
Ese aviso no es menor. En muchos datasets, eliminar el nombre, el correo o el teléfono no basta para evitar la reidentificación si el resto del contexto sigue siendo demasiado específico. Una fecha, una ubicación, una referencia cruzada o una combinación concreta de detalles pueden seguir dejando rastro suficiente para identificar a una persona. OpenAI no entra en ese debate jurídico o estadístico en profundidad, pero sí deja claro que el modelo solo detecta lo que entra dentro de su taxonomía entrenada y que distintas organizaciones pueden necesitar políticas de privacidad más estrictas o distintas de las que trae por defecto.
Además, hay otro matiz importante para el mercado hispanohablante. Aunque en redes se ha presentado como una solución “con español nativo”, la documentación oficial no dice eso. OpenAI indica que el modelo está orientado principalmente al inglés, aunque incluye cierta evaluación de robustez multilingüe. También advierte de forma expresa de que el rendimiento puede caer en textos no ingleses, en escrituras no latinas o en dominios alejados de la distribución de entrenamiento. Dicho de otro modo: puede ser útil en español, pero no conviene venderlo como si hubiera sido diseñado específicamente para ese idioma.
Lo que sí parece claro es que Privacy Filter encaja bien como filtro previo en pipelines empresariales: antes de indexar documentos en un sistema RAG, antes de guardar logs, antes de enviar textos a revisión automática o antes de alimentar flujos de IA generativa con información sin depurar. En esos casos, un modelo pequeño, ajustable y ejecutable en local puede tener más sentido práctico que un gran modelo generativo utilizado para una tarea mucho más concreta. No porque resuelva toda la privacidad, sino porque reduce coste, latencia y superficie de exposición en una fase muy sensible del proceso.
Preguntas frecuentes
¿Qué es OpenAI Privacy Filter y para qué sirve?
Es un modelo abierto de clasificación de tokens diseñado para detectar y enmascarar datos personales identificables en texto, como nombres privados, correos, teléfonos, fechas, números de cuenta o secretos. Está pensado para usarse en pipelines de saneamiento de datos y puede ejecutarse en local.
¿Privacy Filter funciona sin enviar los datos a la nube?
Sí. OpenAI lo presenta como un modelo que puede ejecutarse en local, en un portátil o incluso en un navegador, de forma que el texto sensible no tenga que salir del equipo para ser analizado y redactado.
¿OpenAI Privacy Filter sirve como anonimización completa o cumplimiento legal?
No. OpenAI advierte expresamente que no es una herramienta de anonimización, ni una certificación de cumplimiento, ni una garantía de seguridad. Debe usarse como una capa más dentro de una estrategia de privacidad más amplia.
¿Está optimizado para español?
La documentación oficial no lo presenta como un modelo específico para español. OpenAI indica que está orientado principalmente al inglés, con cierta evaluación multilingüe, y avisa de que el rendimiento puede bajar en textos no ingleses.













