Anthropic actualiza su política de uso: más claridad en ciberseguridad, política y casos de alto riesgo

Anthropic, la compañía detrás del modelo de IA Claude, ha anunciado una actualización en su política de uso que entrará en vigor el próximo 15 de septiembre de 2025. Los cambios buscan ofrecer mayor claridad sobre qué usos de la inteligencia artificial son aceptables y cuáles quedan prohibidos, en un contexto donde las capacidades de los modelos son cada vez más amplias y complejas.

La nueva política responde a comentarios de usuarios, cambios regulatorios, prioridades de cumplimiento y la evolución de los propios productos de la compañía. Según Anthropic, el documento debe entenderse como una guía viva que se adapta conforme emergen nuevos riesgos y oportunidades en el uso de la IA.


Ciberseguridad y agentes autónomos bajo la lupa

Uno de los puntos más relevantes de esta actualización está relacionado con las capacidades “agénticas” —es decir, aquellas que permiten a los modelos actuar de manera autónoma en entornos digitales, como escribir código, ejecutar tareas en un ordenador o interactuar con sistemas de red.

En el último año, Anthropic lanzó herramientas como Claude Code y Computer Use, además de impulsar agentes de software utilizados en programación. Sin embargo, estas mismas funciones abren la puerta a posibles abusos: creación de malware, ataques a infraestructuras críticas o ciberataques a gran escala.

Para prevenirlo, la nueva política establece una prohibición explícita de actividades maliciosas contra ordenadores, redes o infraestructuras. Al mismo tiempo, mantiene el apoyo a usos positivos, como la identificación de vulnerabilidades con el consentimiento del propietario del sistema.

La compañía ha publicado además una guía complementaria en su Help Center que detalla ejemplos concretos de lo que se considera uso indebido en contextos agénticos.


Ajustes en el contenido político

Hasta ahora, Anthropic mantenía una prohibición total de contenidos relacionados con campañas políticas o lobby. La medida se adoptó en un inicio para evitar que la IA pudiera influir de forma indebida en procesos democráticos.

Sin embargo, tras escuchar a sus usuarios, la compañía reconoce que esa postura también limitaba usos legítimos, como la investigación en políticas públicas, la educación cívica o la redacción académica sobre política.

Con los nuevos cambios, el veto se afina: se prohíben específicamente los casos que sean engañosos o disruptivos para los procesos democráticos, incluyendo la segmentación de votantes y campañas políticas personalizadas. En cambio, se permitirá el uso de Claude en discurso político legítimo e investigación, siempre que no suponga manipulación o intromisión indebida.


Lenguaje más claro para el uso por parte de fuerzas de seguridad

Otro ajuste se centra en la aplicación de Claude en el ámbito policial y de seguridad pública. La política anterior contenía excepciones que dificultaban la interpretación, lo que generaba dudas sobre qué usos eran permitidos.

Con la nueva redacción, Anthropic busca ser más directo: se mantiene la prohibición de vigilancia, seguimiento, perfilado y monitorización biométrica, pero se aclara que están permitidos usos internos y de análisis administrativo, siempre que no impliquen invasión de la privacidad o abuso de poder.


Requisitos adicionales para casos de alto riesgo

La compañía también ha reforzado las condiciones aplicables a usos de alto riesgo en contextos de consumo, como aplicaciones legales, financieras o relacionadas con el empleo.

En estos casos, se exige la implementación de salvaguardas adicionales:

  • Supervisión humana en el proceso de decisión (human-in-the-loop).
  • Transparencia sobre el uso de la IA en la interacción con el usuario.

Anthropic subraya que estas exigencias aplican únicamente cuando el modelo se utiliza en interacciones directas con consumidores, y no en contextos B2B (empresa a empresa).


Una política “viva” en un entorno cambiante

Anthropic reconoce que su política de uso no es estática, sino un documento en evolución. La compañía se compromete a seguir colaborando con responsables políticos, expertos y organizaciones de la sociedad civil para actualizarla conforme cambien los riesgos asociados a la inteligencia artificial.

En palabras de la empresa, el objetivo es mantener un equilibrio: permitir que Claude sea una herramienta potente para innovación y productividad, pero evitando usos que comprometan la seguridad, la equidad social o la integridad democrática.


FAQ

1. ¿Cuándo entran en vigor los cambios en la política de uso de Anthropic?
El próximo 15 de septiembre de 2025.

2. ¿Qué actividades relacionadas con ciberseguridad quedan prohibidas?
Cualquier intento de comprometer ordenadores, redes o infraestructuras de forma maliciosa. Solo se permite el uso en contextos autorizados, como pruebas de seguridad con consentimiento.

3. ¿Cómo cambia la política respecto al contenido político?
Se pasa de una prohibición total a un enfoque más específico: se prohíben actividades engañosas o invasivas, pero se permite el uso en investigación, educación cívica y discurso político legítimo.

4. ¿Qué limitaciones existen para las fuerzas de seguridad?
Se prohíben la vigilancia y el perfilado masivo, pero se permiten usos internos de gestión y análisis administrativo.

5. ¿Qué se considera un caso de alto riesgo?
Aplicaciones en áreas como legal, financiera o laboral que impacten directamente en consumidores. En estos casos, se exigen medidas adicionales como supervisión humana y transparencia.

Scroll al inicio