En un ecosistema dominado por modelos cada vez más potentes pero también más opacos, Suiza ha decidido jugar otra partida. Se llama Apertus —“abierto” en latín— y es la nueva apuesta de EPFL, ETH Zurich y el Centro Nacional Suizo de Supercomputación (CSCS): un gran modelo de lenguaje que, sin prometer ser el más espectacular del mercado, busca destacar por una idea que empieza a ser crítica en Europa: la verificabilidad.
La propuesta es sencilla de explicar y difícil de ejecutar. Mientras que muchos sistemas comerciales se limitan a publicar resultados, una API y, como mucho, un documento de buenas intenciones, Apertus llega con un paquete completo: pesos del modelo, arquitectura, código, documentación y recetas de entrenamiento, además de detalles sobre los datos y los filtros utilizados. En otras palabras, abre el proceso de creación para que terceros —universidades, administraciones, empresas o auditores— puedan revisar qué hay detrás.
Dos tamaños, un mismo mensaje: transparencia antes que marketing
Apertus se ofrece en dos versiones, una de 8.000 millones de parámetros y otra de 70.000 millones, pensadas para escenarios distintos: desde uso individual y pruebas en equipos relativamente accesibles hasta despliegues más exigentes. Ambas se distribuyen bajo licencia Apache 2.0, un detalle relevante porque permite usos amplios, también en entornos comerciales, sin obligar a “heredar” licencias más restrictivas.
La distribución se realiza a través de Hugging Face, donde la iniciativa mantiene una colección con variantes (incluidas versiones orientadas a instrucciones). Además, el proyecto cuenta con un chat y demo de API a través de PublicAI, lo que reduce la fricción para quien solo quiere probarlo sin montar infraestructura propia.
En despliegue, Apertus se apoya en herramientas ya conocidas por la comunidad: se indica compatibilidad con Transformers, vLLM, SGLang, llama.cpp y MLX, lo que abre la puerta a ejecutarlo tanto en servidores como en ciertos dispositivos de desarrollo, dependiendo de la versión elegida y de la configuración.
Multilingüe de verdad: el dato que Europa lleva años esperando
Uno de los puntos más repetidos por el equipo suizo es el enfoque multilingüe. Según la información pública del proyecto, Apertus se entrenó con 15 billones de tokens y un peso relevante de datos no ingleses (se cita un 40 %). La iniciativa también subraya la incorporación de lenguas con presencia reducida en otros modelos, como alemán suizo o romanche, además de un abanico mucho más amplio.
Aquí conviene matizar: distintas piezas públicas hablan de “más de 1.000 lenguas” entrenadas, mientras que las fichas técnicas de algunos modelos mencionan más de 1.800 lenguas soportadas de forma nativa. Más allá del número exacto, el mensaje es claro: Apertus intenta romper con la inercia de modelos “globales” que, en la práctica, son anglocéntricos y dejan idiomas europeos y regionales en un segundo plano.
Para sectores regulados, este punto no es un adorno. Un modelo con mejor comportamiento multilingüe y mayor cobertura puede marcar la diferencia en tareas reales: atención al ciudadano, traducción, análisis documental o herramientas educativas que no dependan exclusivamente del inglés.
Cumplimiento como diseño, no como parche
Si Apertus quiere distinguirse de alternativas cerradas como ChatGPT, Claude o Gemini, no lo hace solo con un repositorio público. La iniciativa insiste en que el modelo se ha construido con el cumplimiento normativo como requisito estructural.
Protección de datos y RGPD. El proyecto explica que aplicó filtros para eliminar datos personales antes del entrenamiento y que incorporó medidas para reducir el riesgo de memorización de información sensible. En un momento en el que la IA generativa se está colando en procesos internos —resúmenes, asistentes, clasificación de correos o análisis de documentos—, esta promesa no es menor, especialmente para organizaciones europeas.
Ley europea de IA. Apertus se presenta como una base que intenta alinearse con las obligaciones de transparencia y trazabilidad que trae consigo el marco europeo. En la práctica, esto se traduce en documentación y materiales de reproducibilidad, algo que puede facilitar auditorías y evaluaciones internas, incluso cuando el despliegue lo realice un tercero.
Derechos de autor y “opt-out”. El equipo suizo afirma que el corpus se construyó a partir de datos públicos y que respeta solicitudes de exclusión (“opt-out”) de sitios web, incluso de forma retroactiva. En un contexto de litigios y tensiones entre medios, plataformas y desarrolladores de IA, la elección de una ruta conservadora busca reducir fricciones legales y reputacionales.
La utilidad real: donde la “caja negra” ya no es aceptable
Apertus no se vende como una IA para hacer ruido en redes sociales. Se coloca, sobre todo, como bloque de construcción: un modelo base para crear chatbots, sistemas de traducción, asistentes educativos o herramientas de análisis.
Y es precisamente ahí donde su enfoque puede resultar atractivo: legal, sanitario, financiero y administración pública. Son ámbitos donde los departamentos de cumplimiento y seguridad suelen preguntar lo mismo antes de autorizar un despliegue: qué datos se usaron, qué garantías existen, qué riesgos se asumen y cómo se audita lo que está ocurriendo. Apertus intenta responder a esas preguntas con documentación, no con fe.
No significa que sea perfecto ni que elimine riesgos por arte de magia. Un modelo abierto sigue pudiendo usarse mal, y la transparencia no sustituye a una buena gobernanza. Pero sí cambia el punto de partida: permite que la conversación pase de “confía en mí” a “revísalo”.
En un mercado obsesionado con escalar benchmarks, Suiza ha puesto sobre la mesa otra métrica: la capacidad de demostrar lo que se afirma. Puede que Apertus no sea el más mediático, pero su apuesta apunta al lugar donde Europa quiere competir: en la intersección entre innovación, soberanía tecnológica y cumplimiento.
Preguntas frecuentes (FAQ)
¿Qué es Apertus y en qué se diferencia de ChatGPT, Claude o Gemini?
Apertus es un modelo de lenguaje abierto desarrollado por EPFL, ETH Zurich y CSCS. Su diferencia clave es que publica pesos, documentación y materiales de entrenamiento para permitir revisión y reproducibilidad, mientras que los modelos comerciales suelen mantener esos elementos cerrados.
¿Apertus cumple el RGPD y la normativa europea de IA?
El proyecto afirma que aplicó filtrado para eliminar datos personales y que diseñó el proceso con foco en obligaciones de transparencia y cumplimiento, alineándose con los principios del marco europeo y la legislación suiza.
¿Qué tamaños del modelo existen y para qué casos se recomiendan?
Hay versiones de 8.000 millones y 70.000 millones de parámetros. La más pequeña está orientada a uso individual y pruebas; la mayor, a despliegues con más requisitos de calidad y capacidad, normalmente con infraestructura más potente.
¿Dónde se puede probar o descargar Apertus para un chatbot o un proyecto empresarial?
El modelo se distribuye en Hugging Face y cuenta con una demo de chat y API en PublicAI. También se indica soporte para frameworks y runtimes habituales como Transformers, vLLM, SGLang, llama.cpp y MLX.







