6 de marzo de 2026
3 minutos de lectura
Agréganos en GoogleAñadir ciencia-Am
¿Cómo expulsa exactamente el Pentágono a Claude?
Cambiar un modelo de IA en una red clasificada por otro lleva unos minutos. Recapacitar a las personas que han aprendido a confiar en él llevará mucho más tiempo

El Departamento de Defensa está eliminando gradualmente a Claude de Anthropic de sus redes clasificadas en un plazo de seis meses, lo que desencadenará una transición compleja para el personal militar.
AFP/Stringer/Getty Images
El Pentágono ha puesto a Anthropic en el reloj. El jueves, el Departamento de Defensa notificó formalmente a la empresa que se la consideraba un “riesgo para la cadena de suministro”, etiqueta que ha convertido sus sistemas de inteligencia artificial, incluido su modelo insignia, Claude, en un pasivo.
La medida intensifica una disputa que se ha estado gestando durante semanas sobre el espíritu de Anthropic de priorizar la seguridad (su compromiso de limitar la forma en que se implementa su tecnología) y la demanda del Departamento de Defensa de un control sin restricciones.
El Pentágono está eliminando gradualmente Claude, uno de los modelos de IA más avanzados del mundo, de sus redes clasificadas en un plazo de seis meses. Sobre el papel, cambiar un modelo por otro parece rápido. “Es sencillo cambiar los modelos e instalar otros nuevos”, según una fuente cercana a Palantir, un gigante de la tecnología de defensa que se ha asociado con Anthropic para alojar a Claude dentro de redes militares seguras.
Sobre el apoyo al periodismo científico
Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
La parte más difícil comienza cuando el modelo desaparece: volver a cablear todo lo que se ha construido a su alrededor.
Claude es lo que se conoce como un modelo de frontera, una IA capaz de ejecutar por sí sola tareas complejas de varios pasos. No es así como lo usa actualmente el DOD. Lauren Kahn, investigadora del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown y exfuncionaria del Pentágono, describe su implementación más como un chatbot que como un agente itinerante. Claude se sienta “encima” del software existente, dice, y aparece sólo en ciertos lugares: rincones estrictamente controlados de un entorno clasificado. Y no está conectado a “efectores”, dice, lo que significa que no puede “lanzar un efecto” (un comando de arma, por ejemplo) “en el mundo real”.
A finales de 2024, Anthropic se convirtió en la primera empresa de inteligencia artificial en superar los obstáculos clasificados del Pentágono. Hasta hace poco, Claude era el único gran modelo lingüístico conocido públicamente que operaba en ese entorno. Al que se accede a través de herramientas como Claude Gov, que se convirtió en la opción preferida de parte del personal de defensa, según Bloomberg, el sistema aprovecha enormes canales de datos para convertir una avalancha de información no estructurada en inteligencia legible. En otras palabras, Claude resume información para el Departamento de Defensa, pero no puede apretar el gatillo.
Una vez que las personas confían en una herramienta, puede resultar difícil dejarla ir. Cada integración debe eliminarse pieza por pieza. Y cualquier cosa que reemplace a Claude debe pasar estrictas revisiones y aprobaciones de seguridad antes de tocar un sistema clasificado. Los cambios de software dentro del Pentágono pueden ser “insoportables”, dice Kahn. Incluso algo tan simple como instalar Microsoft Office “lleva meses y meses y meses”.
Al cierre de esta edición, Anthropic no respondió a múltiples solicitudes de comentarios de Scientific American. El Departamento de Defensa se negó a discutir los detalles de la transición.
Desaprender a Claude
Cada modelo de IA falla en sus propias formas características. Los operadores que han pasado meses usando Claude aprenden esas peculiaridades mediante prueba y error: cuáles provocan que aterrice mal, qué resultados requieren una segunda mirada.
Kahn estudia el sesgo de automatización, la tendencia de los operadores humanos a delegar demasiado en las máquinas. “Me preocupa un riesgo ligeramente mayor de sesgo de automatización en las primeras etapas mientras resuelven los problemas”, dice. La gente comprobará los errores de Claude mientras el modelo de reemplazo comete otros nuevos. El personal más expuesto a la transición serán los usuarios avanzados que crearon los flujos de trabajo más personalizados y aprendieron las desventajas del modelo lo suficientemente bien como para explotar sus fortalezas.
Mientras el personal del Pentágono se prepara para la transición operativa, los confusos detalles del enfrentamiento político han salido a la luz pública. A última hora del jueves, el director general de Anthropic, Dario Amodei, publicó una entrada en un blog en la que prometía impugnar ante los tribunales la designación de “riesgo de la cadena de suministro” del gobierno, argumentando que el estatuto suele estar reservado para adversarios extranjeros. Detrás de escena, el enfrentamiento parece haberse convertido en un juego de gallina. Emil Michael, el funcionario del Pentágono que dirigió las negociaciones del departamento con Anthropic, publicó en X que las conversaciones con la compañía están muertas. Y, según se informa, Amodei está luchando por resucitarlos.
Mientras tanto, el DOD ya está avanzando. A las pocas horas de la inclusión oficial de Anthropic en la lista negra, OpenAI anunció que había firmado un acuerdo para desplegar sus modelos en las redes clasificadas del ejército, asegurando el contrato que su rival acababa de perder.
Anthropic estaba dispuesta a correr el riesgo de ser desalojada por el gobierno de EE. UU. en lugar de comprometer su espíritu de seguridad primero. Su reemplazo inicialmente aceptó la demanda del Pentágono de una flexibilidad operativa sin restricciones, solo para agregar apresuradamente las mismas barreras de vigilancia que Anthropic abogó después de que el CEO de OpenAI, Sam Altman, enfrentara una reacción masiva interna y pública. Después de todo, puede que el cambio no sea tan sencillo.
Es hora de defender la ciencia
Si te ha gustado este artículo, me gustaría pedirte tu apoyo. Científico americano ha servido como defensor de la ciencia y la industria durante 180 años, y ahora mismo puede ser el momento más crítico en esos dos siglos de historia.
he sido un Científico americano suscriptor desde que tenía 12 años y me ayudó a moldear mi forma de ver el mundo. Ciencia-Am Siempre me educa y me deleita, e inspira una sensación de asombro por nuestro vasto y hermoso universo. Espero que también lo haga por ti.
Si te suscribes a Científico americanousted ayuda a garantizar que nuestra cobertura se centre en investigaciones y descubrimientos significativos; que tenemos los recursos para informar sobre las decisiones que amenazan a los laboratorios en todo Estados Unidos; y que apoyemos a los científicos tanto en ciernes como en activo en un momento en el que con demasiada frecuencia el valor de la ciencia misma pasa desapercibido.
A cambio, obtiene noticias esenciales, podcasts cautivadores, infografías brillantes, boletines informativos imperdibles, vídeos imprescindibles, juegos desafiantes y los mejores escritos e informes del mundo científico. Incluso puedes regalarle a alguien una suscripción.
Nunca ha habido un momento más importante para que nos levantemos y demostremos por qué la ciencia es importante. Espero que nos apoyes en esa misión.