¿Puede una empresa de tecnología decirle «no» al ejército más poderoso del mundo y sobrevivir para contarlo?
Eso es exactamente lo que está probando Anthropic en este momento —y la respuesta podría redefinir las reglas del juego para cualquier organización que trabaje, o planee trabajar, con inteligencia artificial.
Lo que pasó: la historia completa
Todo comenzó con un contrato de $200 millones. En julio de 2025, Anthropic, la empresa creadora del asistente de IA Claude, firmó un acuerdo con el Departamento de Defensa de Estados Unidos para desarrollar capacidades de IA en entornos clasificados. Claude se convirtió así en el primer modelo de IA de frontera desplegado en las redes clasificadas del gobierno estadounidense.
Pero el contrato tenía condiciones. Anthropic exigió dos garantías que el Pentágono debía respetar: que Claude no sería utilizado para vigilancia masiva de ciudadanos estadounidenses y que no operaría en sistemas de armas completamente autónomas, sin supervisión humana en las decisiones letales.
El Pentágono respondió que necesitaba acceso a la tecnología «para todos los fines legales». Que no podía permitir que una empresa privada le dictara cómo usar sus herramientas en una emergencia de seguridad nacional.
Allí comenzó el conflicto.
La escalada: una semana que cambió la industria
El 27 de febrero de 2026, con una fecha límite fijada a las 5:01 PM, el Pentágono exigió a Anthropic que eliminara sus restricciones o perdería su contrato. Anthropic no cedió. El Secretario de Defensa Pete Hegseth formalizó la designación de la empresa como «riesgo para la cadena de suministro de seguridad nacional» y el presidente Trump ordenó a todas las agencias federales cesar de inmediato el uso de tecnología de Anthropic.
Es la primera vez en la historia que una compañía estadounidense recibe esta clasificación. Hasta ese momento, el estatus de «riesgo en la cadena de suministro» se reservaba exclusivamente para empresas extranjeras de naciones adversarias como Rusia o China.
Las consecuencias fueron inmediatas:
La designación obliga a todos los contratistas y proveedores del Departamento de Defensa a certificar que no utilizan modelos de Anthropic en sus trabajos para el sector defensa, establece un plazo de seis meses para que el propio Pentágono migre sus sistemas, y afecta directamente los contratos vigentes mientras bloquea nuevas licitaciones gubernamentales.
Lockheed Martin, uno de los mayores contratistas de defensa del mundo, anunció rápidamente su cumplimiento con la directiva del Pentágono, iniciando el proceso de eliminar las herramientas de Anthropic de toda su cadena de suministro.
El movimiento de OpenAI: ¿socio o oportunista?
Horas después de que el gobierno baneara a Anthropic, OpenAI anunció que había cerrado un acuerdo con el Departamento de Defensa para desplegar sus modelos en redes clasificadas militares. El timing generó una controversia enorme.
El CEO de OpenAI, Sam Altman, publicó en X que en el acuerdo el Departamento de Defensa mostró «un profundo respeto por la seguridad», e incluso señaló que compartía las mismas «líneas rojas» que Anthropic: prohibiciones sobre vigilancia doméstica masiva y sobre el uso autónomo de armas letales.
Sin embargo, la diferencia práctica es significativa: mientras Anthropic buscaba prohibiciones explícitas, OpenAI acordó que sus modelos podían usarse para «cualquier propósito legal». En la práctica, esto significa que la tecnología de OpenAI podría emplearse en actividades consideradas legales bajo la legislación vigente de Estados Unidos, que históricamente ha permitido formas de vigilancia que muchos consideran cuestionables.
El propio Altman reconoció después que no debió haber apresurado el acuerdo, que «lució oportunista y descuidado». La reacción del público fue rápida: mientras ChatGPT registraba desinstalaciones masivas, Claude se convirtió en la aplicación más descargada de la App Store en más de 20 países.
La demanda: Anthropic lleva el caso a los tribunales
El 9 de marzo de 2026, Anthropic presentó una demanda federal en San Francisco contra el Departamento de Defensa y más de una docena de agencias federales, incluyendo el Departamento del Tesoro y el Departamento de Estado. En un documento de 48 páginas, la compañía argumenta que la designación como riesgo de cadena de suministro constituye una retaliación inconstitucional vinculada al ejercicio de su libertad de expresión, protegida por la Primera Enmienda.
La demanda pide al tribunal que anule la etiqueta y prohíba a las agencias federales aplicarla, argumentando: «La Constitución no permite al Gobierno utilizar su enorme poder para castigar a una empresa por una expresión amparada por la ley.»
Decenas de científicos e investigadores de OpenAI y Google DeepMind presentaron un amicus brief en sus capacidades personales apoyando a Anthropic, argumentando que la designación podría dañar la competitividad de EE.UU. en la industria y frenar el debate público sobre los riesgos de la IA.
La paradoja señalada en varios medios: pese al veto oficial, reportes indican que el Ejército de Estados Unidos habría continuado utilizando Claude en operaciones en Irán para planificación y recopilación de datos clasificados.
Por qué importa esto más allá de Anthropic
Si gestionas un equipo, lideras proyectos tecnológicos o tomas decisiones sobre cómo tu organización adopta IA, este caso tiene implicaciones directas para ti.
1. Los contratos B2G (empresa-gobierno) en IA ya no son lo que eran
Los modelos de negocio con gobierno en IA exigen ahora revisar con mucho más cuidado los términos de uso y los límites operacionales que una empresa está dispuesta a aceptar. El precedente regulatorio es claro: si el gobierno puede usar designaciones de seguridad nacional como herramienta de presión contra empresas que no ceden, cualquier startup del sector queda expuesta a un riesgo similar.
2. La ética tiene valor económico —en ambas direcciones
El enfrentamiento entre Anthropic y el Pentágono ilustra uno de los dilemas más reales del sector: las decisiones éticas tienen un impacto directo en el posicionamiento competitivo. Anthropic ha construido parte de su diferenciación sobre la bandera de la IA responsable. El gobierno, según la propia demanda, buscaría «destruir el valor económico» de la compañía al atacar precisamente ese posicionamiento.
Pero la reacción del mercado dice otra cosa: más de un millón de usuarios nuevos por día durante la crisis. Claude superó a ChatGPT en la App Store por primera vez en su historia.
3. Tus proveedores de IA están bajo presión política
Si tu empresa usa herramientas de IA en proyectos relacionados con el gobierno —directa o indirectamente— este caso debe aparecer en tu análisis de riesgo. Cambiar de proveedor de IA no es como cambiar de marca de café. Para una organización, migrar herramientas, volver a certificar sistemas, reentrenar personal y rehacer flujos de trabajo puede ser costoso y lento.
4. El debate sobre quién controla la IA acaba de comenzar
El caso de Anthropic abre una discusión más amplia sobre el grado de control que pueden ejercer las empresas tecnológicas en la definición de los usos militares de sus sistemas de inteligencia artificial. A medida que la IA gana peso en la estructura militar, el enfrentamiento entre Anthropic y el Departamento de Defensa sienta un precedente para futuras controversias en el sector.
Las dos preguntas que nadie está respondiendo bien
¿Cuál es la diferencia real entre el acuerdo de OpenAI y lo que pedía Anthropic?
Nadie lo sabe con precisión. CNN solicitó aclaraciones tanto al Pentágono como a OpenAI y no recibió respuesta. Según The Verge, el acuerdo de OpenAI es «mucho más suave» que el de Anthropic: OpenAI acordó seguir leyes que han permitido vigilancia masiva en el pasado. Un funcionario de la administración Trump confirmó que el acuerdo «parte del principio de uso legal total», incluyendo ciertos mecanismos de seguridad acordados mutuamente.
¿Qué línea roja era innegociable para el Pentágono?
En un memo interno filtrado al Financial Times, el CEO de Anthropic, Dario Amodei, reveló que cerca del final de las negociaciones, el Pentágono ofreció aceptar los términos de Anthropic si eliminaban «una frase específica sobre el análisis de datos adquiridos en volumen», una cláusula que, según Amodei, «coincidía exactamente con el escenario que más nos preocupaba».
El estado actual: negociaciones, demanda y futuro incierto
A la fecha de publicación de este artículo, el panorama es el siguiente:
- Anthropic mantiene activa su demanda federal presentada el 9 de marzo de 2026
- El Pentágono tiene seis meses para completar la transición a otros proveedores
- Anthropic y el Pentágono han retomado negociaciones paralelas al litigio, según el Financial Times
- Claude continúa siendo usado por algunos contratistas en funciones no relacionadas con contratos de defensa
- OpenAI está revisando su contrato tras la presión pública, fortaleciendo las cláusulas de privacidad
Lo que este caso nos enseña sobre IA y poder
Lo que está en juego no es solo un contrato, sino un «desacuerdo de valores» que, según Anthropic, derivó en represalias administrativas. El debate sobre qué no debe hacer una IA se convirtió en una herramienta de presión económica y operativa.
Para quienes lideran equipos y organizaciones, la pregunta que deja este caso no es si adoptar IA. Es qué tipo de IA, bajo qué condiciones, con qué proveedores, y con qué nivel de comprensión sobre los valores —y los riesgos— que vienen con esa elección.
Los modelos de IA que usas no son neutrales. Sus creadores toman decisiones sobre qué harán y qué no harán con su tecnología. Anthropic acaba de demostrarlo de la manera más dramática posible.
¿Tu organización tiene una política clara sobre el uso de IA y sus límites éticos? Es un buen momento para construirla.
Fuentes
- CNN Español (28 feb. 2026). OpenAI llega a un acuerdo con el Pentágono horas después de que el Gobierno de Trump prohibiera a Anthropic. cnnespanol.cnn.com
- CNN Business (9 mar. 2026). Anthropic sues the Trump administration after it was designated a supply chain risk. cnn.com
- NPR (27 feb. 2026). OpenAI announces Pentagon deal after Trump bans Anthropic. npr.org
- NPR (6 mar. 2026). Pentagon labels AI company Anthropic a supply chain risk ‘effective immediately’. npr.org
- NBC News (27 feb. 2026). OpenAI strikes deal with Pentagon, hours after rival Anthropic was blacklisted by Trump. nbcnews.com
- CNBC (5 mar. 2026). Anthropic and the Pentagon are back at the negotiating table. cnbc.com
- Built In (feb. 2026). OpenAI’s Pentagon AI Deal: What the Contract Allows and How It Differs From Anthropic. builtin.com
- The Hacker News (feb. 2026). Pentagon Designates Anthropic Supply Chain Risk Over AI Military Dispute. thehackernews.com
- Ecosistema Startup (mar. 2026). Anthropic, el Pentágono y el costo de los principios en IA. ecosistemastartup.com
- Infobae (10 mar. 2026). Anthropic presentó demanda contra el Departamento de Defensa de EE.UU. infobae.com


