Del “sí” táctico al veto político: la guerra entre Washington y Anthropic pone a prueba quién manda sobre los límites de la Inteligencia Artificial

En Silicon Valley se habla mucho de disrupción, pero pocas veces se ve una tan cruda como la que enfrenta estos días a Anthropic —la empresa detrás de Claude— con el Gobierno de Estados Unidos. La secuencia es tan rápida como incómoda: tras meses de negociación, la Administración de Donald Trump ha ordenado a agencias federales cesar el uso de la tecnología de Anthropic, mientras el secretario de Defensa, Pete Hegseth, ha anunciado una designación que, en la práctica, amenaza con aislar a la compañía del ecosistema de contratistas militares.

El caso no gira alrededor de un bug o una filtración. El núcleo es más político: quién decide los límites de una tecnología cuando esa tecnología se convierte en infraestructura estratégica. La empresa sostiene que se ha negado a dos usos concretos: vigilancia masiva doméstica y armas plenamente autónomas. El Pentágono, según la versión de Anthropic, exigía acceso “sin restricciones” para cualquier uso legal, incluyendo precisamente esos escenarios.

La chispa: dos líneas rojas y un ultimátum

En un comunicado firmado por su CEO, Dario Amodei, Anthropic afirma que cree “profundamente” en el papel de la Inteligencia Artificial para defender a Estados Unidos y otras democracias, y recuerda que Claude ya se utiliza en misiones consideradas críticas: análisis de inteligencia, modelado y simulación, planificación operativa y ciberoperaciones, entre otras. Pero fija dos excepciones que dice no poder cruzar:

  1. Vigilancia masiva doméstica: Anthropic argumenta que, aunque ciertos datos puedan comprarse legalmente a intermediarios sin orden judicial, la Inteligencia Artificial permitiría ensamblar “a escala” una imagen detallada de la vida de cualquier ciudadano, con riesgos nuevos para libertades fundamentales.
  2. Armas plenamente autónomas: la empresa admite la utilidad de sistemas parcialmente autónomos, pero sostiene que los modelos actuales no son lo bastante fiables para seleccionar y atacar objetivos sin humanos en el bucle, y que desplegarlos hoy podría poner en riesgo tanto a civiles como a tropas.

Según Amodei, el Departamento de Defensa habría amenazado con expulsar a Anthropic de sus sistemas si no aceptaba esas condiciones, y con etiquetar a la compañía como “riesgo para la cadena de suministro”, además de invocar mecanismos legales para forzar la retirada de salvaguardas.

El salto de escala: de disputa contractual a “riesgo en cadena de suministro”

La escalada llegó con declaraciones públicas. En su propia nota, Anthropic confirma que Hegseth comunicó en X su intención de designar a la empresa como “supply chain risk” (riesgo en la cadena de suministro), precisamente por el desacuerdo sobre esas dos excepciones.

En paralelo, una orden presidencial ha empujado el conflicto más allá del Pentágono: la directiva instruye a que agencias federales terminen su relación tecnológica con Anthropic, y establece un periodo de transición de hasta seis meses para completar el “offboarding” en Defensa y otros organismos.

La etiqueta de “riesgo en la cadena de suministro” es la pieza que más inquieta a la industria, porque no se limita a cortar un contrato: puede impedir que contratistas, proveedores y socios que trabajan con el Departamento de Defensa mantengan relaciones comerciales con la empresa. Es el tipo de decisión que no solo afecta al cliente directo, sino al tejido entero que vive alrededor de la contratación pública.

Lo que dijo Trump y lo que circula en redes

En redes, el relato se ha llenado de versiones hiperbólicas y afirmaciones difíciles de sostener. Por ejemplo, se ha viralizado la idea de que el Ejército “capturó a Maduro” usando Claude. Algunos medios han recogido menciones a operaciones en Venezuela en el contexto de este choque político, pero el contenido público disponible no permite tratar esa afirmación como un hecho confirmado en los términos en que se comparte en publicaciones virales.

Lo verificable, en cambio, es el tono político: en un mensaje publicado en Truth Social, Trump acusó a Anthropic de ser una empresa “woke” que pretende dictar cómo lucha el Ejército, y reivindicó que esa decisión corresponde al comandante en jefe.

Por qué este choque puede doler más que perder un contrato

En números, el contrato del Pentágono citado en la cobertura ronda 200 millones de dólares. Para una compañía del tamaño y ambición de Anthropic, esa cifra por sí sola no explica el drama. Lo que sí lo explica es el efecto dominó: si el Gobierno federal y su red de contratistas cortan relación, el golpe potencial se traslada a reputación, distribución y crecimiento en el mercado empresarial.

El conflicto llega, además, en un momento delicado para cualquier startup: Anthropic anunció en febrero una ronda de 30.000 millones de dólares que la valoró en 380.000 millones “post-money”. En otras palabras: está en una etapa donde la expectativa de mercado se apoya en que su tecnología sea ubicua en empresas y, también, en sectores estratégicos.

Aquí se entiende por qué algunos analistas hablan de un “todo o nada”. No porque la compañía pase literalmente de 380.000 millones a cero de la noche a la mañana, sino porque una etiqueta gubernamental de alto voltaje puede convertir a un proveedor en tóxico para clientes que dependen de contratos públicos o de cumplimiento normativo estricto.

La lección que se repite: automatizar no es delegar responsabilidad

El fondo del debate conecta con una confusión recurrente: cuando se habla de “automatizar procesos” con Inteligencia Artificial, muchas personas imaginan una máquina tomando decisiones. Lo que Anthropic defiende en su comunicado es, precisamente, lo contrario: poner límites ex ante a los usos más delicados y exigir que haya humanos en el bucle en decisiones letales.

En el mundo real, la automatización responsable se parece más a una “caja cerrada”: un sistema que recibe un input acotado, produce un output en formato específico, y pasa por un revisor humano que valida que no hay errores ni alucinaciones. La tesis de Anthropic es que, en ciertos escenarios —vigilancia masiva doméstica y armas totalmente autónomas—, ese “human in the loop” no es un detalle técnico, sino una línea roja ética y de seguridad.

Tabla resumen: qué ha pasado y qué implica

ElementoQué sostiene el Gobierno de EE. UU.Qué sostiene AnthropicImpacto práctico
Uso gubernamental de ClaudeAcceso “sin restricciones” para usos legalesDos excepciones: no a vigilancia masiva doméstica y no a armas plenamente autónomas hoyRuptura de negociación y choque público
Medida principalOrden de cese de uso en agencias + transiciónOfrece transición ordenada y mantiene posturaSalida progresiva en hasta 6 meses
Etiqueta “supply chain risk”Restringe relaciones con proveedores del Pentágono“Etiqueta reservada a adversarios” y potencial contradicciónRiesgo de aislamiento en ecosistema de defensa
Contrato citadoAproximadamente 200 millones de dólaresNo sería barrera para despliegue hasta ahoraEl coste real sería reputacional y de mercado
Contexto financieroValoración reciente de 380.000 millonesVolatilidad y presión sobre socios y clientes

Un precedente que trasciende a Anthropic

Este caso marca un precedente: si un Gobierno decide que una empresa de Inteligencia Artificial debe aceptar “cualquier uso legal” para poder operar en el sector público, entonces la discusión se traslada del laboratorio a la política: ¿quién define lo “aceptable” cuando la ley va por detrás de la capacidad técnica?

Para muchas empresas fuera del sector defensa, la moraleja también es inmediata: la automatización con Inteligencia Artificial puede multiplicar productividad, sí, pero el control —y la responsabilidad— no se externalizan. En derecho, en finanzas, en sanidad o en ciberseguridad, el “output” de un modelo no es un veredicto: es un borrador que alguien debe firmar con su nombre.


Preguntas frecuentes

¿Qué significa el nivel “supply chain risk” aplicado a una empresa de Inteligencia Artificial?
Implica que el Gobierno puede restringir o impedir que contratistas y proveedores que trabajan con el Departamento de Defensa mantengan relaciones comerciales con esa empresa.

¿Cuáles son las dos líneas rojas que Anthropic dice haber defendido ante el Pentágono?
Rechazar el uso de sus modelos para vigilancia masiva doméstica y para armas plenamente autónomas sin humanos en el bucle.

¿Un veto federal puede hundir una startup aunque tenga clientes privados?
Puede dañarla de forma significativa si afecta a reputación, acceso a grandes contratos, alianzas con integradores y adopción en sectores regulados. No garantiza “cero”, pero sí aumenta el riesgo.

¿Por qué esta crisis importa también fuera del ámbito militar?
Porque define un precedente sobre cómo se negocian límites de seguridad y ética en Inteligencia Artificial, y sobre quién asume responsabilidad cuando los sistemas automatizan trabajo crítico.

Fuente: Twitter X y anthropic

Scroll al inicio