La tensión entre el Gobierno de Estados Unidos y una de las empresas más influyentes del sector de la Inteligencia Artificial ha estallado en público y con consecuencias inéditas. El Pentágono ha decidido designar a Anthropic como “riesgo para la cadena de suministro”, una etiqueta que, por su dureza, suele asociarse a proveedores considerados problemáticos para la seguridad nacional y que en el pasado se ha aplicado a compañías extranjeras. La medida llega tras un pulso sobre el uso militar de Claude, el modelo de Anthropic, en un momento en el que la adopción de modelos generativos por parte de Defensa acelera y la frontera entre “uso legal” y “uso aceptable” se vuelve cada vez más difusa.
Según ha trascendido en medios estadounidenses, el choque se centra en una exigencia del Departamento de Defensa: que los laboratorios permitan que sus modelos se utilicen para “todos los usos legales”. Anthropic, sin embargo, se habría resistido a eliminar dos límites concretos: la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas plenamente autónomas, es decir, sistemas capaces de disparar sin intervención humana.
De una reunión “tensa” al veto con efecto dominó
El episodio se venía cocinando desde semanas atrás, pero cobró una dimensión política cuando el secretario de Defensa, Pete Hegseth, citó a Dario Amodei, consejero delegado de Anthropic, en un encuentro que Axios describió como un ultimátum: una reunión “no amistosa”, orientada a desbloquear el conflicto a la fuerza. En ese contexto, el Pentágono habría amenazado con activar la designación de “riesgo para la cadena de suministro” si la empresa no aceptaba flexibilizar sus condiciones de uso.
El paso siguiente llegó el 27 de febrero de 2026: el presidente Donald Trump ordenó a las agencias federales dejar de utilizar tecnología de Anthropic y anunció un periodo de retirada de seis meses, mientras Defensa avanzaba con la calificación de “riesgo” y exigía que sus contratistas se desvincularan de Claude en los trabajos vinculados al Pentágono.
La clave de esta etiqueta es su efecto en cadena: no solo golpea a Anthropic por su relación directa con el Gobierno, sino que obliga a proveedores y contratistas a certificar que no usan Claude en determinados flujos de trabajo. En otras palabras, el castigo no termina en el contrato público: se extiende por toda la base industrial que opera alrededor del Departamento de Defensa.
Claude, “imprescindible” en lo clasificado… y difícil de reemplazar
La paradoja del caso está en el punto de partida. Varios medios coinciden en que Claude era, hasta ahora, el modelo con presencia más consolidada dentro de sistemas clasificados del Pentágono, y que separarlo de esos entornos puede ser un proceso complejo. Reuters y Axios señalan que la propia Administración es consciente del coste operativo de “desenredar” la tecnología, precisamente porque está integrada en tareas sensibles.
El conflicto se agrava por un precedente que ha disparado el debate público: distintas informaciones apuntan a que Claude se utilizó, a través de plataformas asociadas a Palantir, en una operación de alto perfil relacionada con Venezuela. Reuters citó un reportaje de The Wall Street Journal que situaba al modelo en ese contexto, lo que convirtió un debate abstracto sobre cláusulas y límites en una discusión inmediata sobre responsabilidad, supervisión y consecuencias reales.
Qué pedía Defensa y por qué Anthropic se plantó
En la disputa subyace una diferencia de filosofía. El Pentágono defiende que, una vez compra o integra una herramienta, debe poder emplearla bajo su marco interno y bajo la ley estadounidense, sin “negociar caso por caso” con una compañía privada. Anthropic, por su parte, habría aceptado relajar restricciones generales, pero se habría negado a abrir la puerta a dos ámbitos especialmente sensibles: la vigilancia doméstica a gran escala y el armamento autónomo.
Axios añadió un detalle relevante sobre el tipo de concesiones que habrían estado sobre la mesa en los últimos contactos: permitir la recogida o análisis de datos sobre estadounidenses, incluyendo geolocalización, navegación web o información financiera adquirida a intermediarios de datos. Ese punto, que conecta con el mercado de los data brokers, explica por qué el choque trasciende lo militar y toca directamente el debate sobre privacidad y libertades civiles.
Mientras tanto, OpenAI, Google y xAI ganan terreno
La ruptura con Anthropic no ocurre en un vacío. La adopción de modelos generativos en Defensa avanza por varias vías. A comienzos de febrero, OpenAI anunció el despliegue de una versión personalizada de ChatGPT en GenAI.mil, orientada a trabajo no clasificado dentro del Departamento de Defensa. Reuters, además, informó de que OpenAI alcanzó acuerdos con el Pentágono que implicaban retirar parte de sus restricciones habituales, aunque manteniendo ciertas salvaguardas.
En paralelo, la Administración ha explorado otras alternativas. Axios informó de un acuerdo para que xAI permita el uso de Grok en sistemas clasificados, mientras se aceleran conversaciones para ampliar capacidades con otros proveedores. El resultado es una carrera en la que las empresas no solo compiten por potencia o latencia, sino por condiciones de uso: qué aceptan, qué limitan y qué riesgos asumen.
Un factor incómodo: la propia industria reconoce que los modelos no son infalibles
El choque político llega, además, en un momento en el que la industria publica con más frecuencia informes de riesgo. En febrero, Axios se hizo eco de un informe de seguridad de Anthropic que admitía vulnerabilidades y posibles usos indebidos, incluyendo apoyo “en pequeño grado” a actividades delictivas como el desarrollo de armas químicas. En esos mismos días, Forbes informó de la dimisión de un responsable de investigación en seguridad de IA en la compañía, que en su carta alertaba de un mundo “en peligro”. Son piezas que alimentan una pregunta central: si los propios creadores subrayan riesgos, qué significa exigirles que levanten barreras de uso en el entorno más sensible posible.
Un precedente que trasciende a Estados Unidos
Aunque el pulso se libra en Washington, el eco es global. Lo que se discute aquí no es solo un contrato o un proveedor: es si un Gobierno puede presionar a una empresa tecnológica para eliminar límites de seguridad en modelos avanzados, bajo amenaza de aplicarle herramientas diseñadas para frenar a adversarios externos. Y, al mismo tiempo, plantea el escenario contrario: qué ocurre cuando las compañías privadas fijan “líneas rojas” que chocan con la doctrina de “todos los usos legales” que reclama Defensa.
Para el ciudadano común —también en Europa— el caso funciona como señal de alerta: la Inteligencia Artificial no solo está entrando en la administración pública; está entrando en decisiones de alto impacto, donde los incentivos institucionales y los límites éticos no siempre caminan en la misma dirección.
Preguntas frecuentes
¿Qué significa que el Pentágono declare a una empresa de IA “riesgo para la cadena de suministro”?
Implica una calificación que puede bloquear contratos y forzar a contratistas y proveedores a dejar de usar esa tecnología en trabajos ligados a Defensa, con un efecto dominó en el sector.
¿Qué límites se negó a retirar Anthropic en el uso militar de Claude?
Según las informaciones publicadas, Anthropic defendió dos líneas rojas: no permitir vigilancia masiva de ciudadanos estadounidenses y no habilitar armas plenamente autónomas.
¿Por qué es relevante que Claude estuviera en entornos clasificados?
Porque diversos medios sitúan a Claude como uno de los modelos más integrados en sistemas clasificados del Pentágono, lo que hace más difícil y costoso reemplazarlo de forma inmediata.
¿Qué papel juega GenAI.mil en la adopción de IA dentro del Departamento de Defensa?
GenAI.mil es una plataforma del DoD para uso de modelos generativos en tareas no clasificadas, donde se han anunciado despliegues como el de ChatGPT, dentro de un marco de seguridad específico.










