El circuito de DC se niega a suspender la designación de Claude como “riesgo para la cadena de suministro” del Departamento de Guerra

De la orden de hoy de los jueces Karen LeCraft Henderson, Gregory Katsas y Neomi Rao en Anthropic PBC v. US Dep’t of War:

Anthropic PBC desarrolla Claude, una familia de modelos avanzados de inteligencia artificial. En 2024, el Departamento de Defensa (que ahora se llama Departamento de Guerra) comenzó a utilizar a Claude en relación con varias operaciones militares.

Pero el 3 de marzo de 2026, el Secretario de Guerra, Pete Hegseth, determinó que la adquisición de bienes o servicios de IA de Anthropic presenta un riesgo para la cadena de suministro para la seguridad nacional según 41 USC § 4713. El impulso para la determinación fue la negativa de Anthropic a autorizar contractualmente al Departamento a utilizar a Claude para vigilancia interna masiva o guerra autónoma letal. Como resultado, el Departamento canceló sus contratos con Anthropic, comenzó a eliminar a Claude de sus sistemas y prohibió a sus otros contratistas utilizar a Anthropic como subcontratista en el trabajo realizado para el Departamento. El Departamento no ha prohibido a los contratistas utilizar a Claude para trabajos realizados para entidades distintas al Departamento.

Anthropic busca una revisión de la determinación del Secretario bajo la sección 4713 de prohibir a la empresa proporcionar bienes o servicios al Departamento. Sostiene que la determinación fue contraria a derecho, inconstitucional y arbitraria. Anthropic solicita una suspensión pendiente de revisión sobre el fondo o, alternativamente, una consideración acelerada del fondo.

Cuatro consideraciones rigen si Anthropic tiene derecho al recurso extraordinario de una suspensión pendiente de revisión: (1) si ha demostrado “contundentemente” que es probable que tenga éxito en cuanto al fondo; (2) si sufrirá un daño irreparable sin una suspensión; (3) si una suspensión perjudicará al Departamento; y (4) si el interés público respalda una suspensión. Debido a que los encuestados son agencias o funcionarios gubernamentales, los factores tercero y cuarto se fusionan en una sola investigación.

La petición de Anthropic plantea preguntas novedosas y difíciles, incluido qué se considera un riesgo para la cadena de suministro según la sección 4713 y qué califica como un interés urgente de seguridad nacional que justifica el uso de procedimientos legales truncados. Además, debemos considerar si la petición de Anthropic apunta a una “acción de adquisición cubierta” revisable en este momento según el esquema de revisión judicial vigente, 41 USC § 1327(b). Las partes impugnan vigorosamente muchas de estas cuestiones y no hemos encontrado ningún precedente judicial que arroje mucha luz sobre las cuestiones presentadas. Pero no abordamos los méritos en este momento, porque Anthropic no ha demostrado que el balance de acciones se incline a su favor.

Comenzamos reconociendo que Anthropic probablemente sufrirá algún grado de daño irreparable si no se suspende. Anthropic plantea sus intereses en parte en términos constitucionales, pero esos intereses parecen principalmente de naturaleza financiera. Anthropic busca una audiencia previa a la privación bajo la Quinta Enmienda, pero dicha audiencia sería valiosa para la empresa sólo como un medio para preservar contratos financieramente beneficiosos. Anthropic también reclama daños continuos por represalias por su discurso protegido constitucionalmente. Pero Anthropic no demuestra que su discurso se haya enfriado durante la tramitación de este litigio, por lo que estos daños continuos también son efectos financieros de las acciones del Departamento contra la empresa.

La cantidad exacta del daño financiero de Anthropic no está del todo clara. El director ejecutivo de Anthropic, Dario Amodei, ha declarado públicamente que la “gran mayoría” de los clientes de Anthropic “no se verán afectados” por la designación, ya que “claramente se aplica sólo al uso de Claude por parte de los clientes como parte directa de los contratos con el Departamento de Guerra, no a todo uso de Claude por parte de los clientes que tienen dichos contratos”. Y algunas pruebas récord sugieren que Anthropic se ha beneficiado financieramente de su negativa a acceder a la solicitud de permiso del Departamento para utilizar Claude para todos los usos legales. Agregar. 240 (declaración de Amodei a los empleados de que “el público en general o los medios de comunicación… nos ven como héroes (¡ahora somos el número 2 en la tienda de aplicaciones!)”); véase también Scanlon, En detalle gráfico: cómo la negativa de Anthropic al Pentágono está dando sus frutos en descargas, confianza en la marca y acuerdos empresariales, Digiday (9 de marzo de 2026), https://perma.cc/2B54-855B (“Los 200 millones de dólares [Anthropic] del que se alejó rechazando las demandas del Pentágono puede convertirse en la mejor inversión en marketing en Silicon Valley en años.”).

No obstante, Anthropic ha documentado algunas pérdidas financieras potencialmente significativas, particularmente si otras agencias federales siguen el ejemplo del Departamento de eliminar a Claude de sus propias cadenas de suministro. A falta de un mecanismo para que Anthropic recupere estas pérdidas si prevaleciera sobre el fondo, estos daños financieros califican como irreparables.

Hay importantes intereses gubernamentales y públicos al otro lado del libro mayor. Lo más obvio es que otorgar una suspensión obligaría al ejército de los Estados Unidos a prolongar sus tratos con un proveedor no deseado de servicios críticos de inteligencia artificial en medio de un importante conflicto militar en curso. Como explica el Departamento, Anthropic ahora ha prohibido de manera concluyente los usos que el Departamento recientemente consideró esenciales. Ver Agregar. 223 (memorando de Hegseth a los altos directivos del Departamento, fechado el 9 de enero de 2026, en el que se afirma que “[t]El Departamento también debe utilizar modelos libres de restricciones de políticas de uso que puedan limitar las aplicaciones militares legales”).

Además, el Departamento confía en Anthropic para proporcionar actualizaciones periódicas a Claude, que contiene “protecciones” integradas diseñadas para evitar usos que Anthropic considera dañinos. Además, Anthropic y el Departamento recientemente no estuvieron de acuerdo sobre los usos de Claude para operaciones militares que, según el Departamento, estaban permitidos según la política de uso existente. Y la relación del Departamento con Anthropic se ha deteriorado hasta el punto que el director ejecutivo de Anthropic ha descrito públicamente las declaraciones del Departamento sobre la controversia como “completamente falsas” y “simplemente mentiras”.

En estas circunstancias, exigir al Departamento que prolongue el uso de la tecnología de inteligencia artificial de Anthropic, ya sea directamente o a través de contratistas, nos parece una imposición judicial sustancial a las operaciones militares. Y, por supuesto, no anulamos a la ligera los juicios del Departamento en asuntos relacionados con la seguridad nacional. Véase, por ejemplo, Trump v. Hawaii (2018).

En nuestra opinión, el equilibrio equitativo aquí favorece al gobierno. Por un lado, existe un riesgo relativamente contenido de daño financiero a una sola empresa privada. Por otro lado, está la gestión judicial de cómo y a través de quién el Departamento de Guerra asegura tecnología vital de IA durante un conflicto militar activo. Por esa razón, denegamos la moción de Anthropic de suspensión pendiente de revisión sobre el fondo. { Nuestra decisión de denegar una suspensión hace innecesario abordar la sugerencia del gobierno de que la disposición de revisión judicial pertinente, 41 USC § 1327(b), nos priva de la autoridad para conceder una.}

No obstante, debido a que Anthropic plantea desafíos sustanciales a la determinación y probablemente sufrirá algún daño irreparable durante la tramitación de este litigio, estamos de acuerdo con Anthropic en que se justifica una expedición sustancial.

Por lo tanto, el tribunal ha fijado un cronograma de presentación de informes rápidos, al que seguirá un alegato oral para el 19 de mayo; instruye a las partes a abordar:

si tenemos jurisdicción sobre la petición de Anthropic bajo 41 USC § 1327, que prevé la revisión de “acciones de adquisiciones cubiertas” tomadas bajo 41 USC § 4713; si el gobierno, a través de la Determinación o Notificación o de otra manera, ha dirigido o tomado acciones específicas de adquisiciones cubiertas contra Anthropic; si Anthropic puede afectar el funcionamiento de sus modelos de inteligencia artificial y, de ser así, cómo, antes o después de que los modelos, o sus actualizaciones, se entreguen al Departamento.

Estoy tratando de asegurarme de cómo esto interactúa con la orden judicial preliminar emitida el 26 de marzo por la jueza Rita Lin (ND Cal.) en el caso federal aparentemente paralelo presentado por Anthropic en ese tribunal; Consulte aquí el informe de situación del gobierno del lunes en ese caso. Pero pensé en tomar nota de la acción del Circuito DC en cualquier caso.