El 5 de febrero Anthropic lanzó Claude Opus 4.6, su modelo de inteligencia artificial más potente. Entre las nuevas características del modelo está la capacidad de coordinar equipos de agentes autónomos: múltiples IA que dividen el trabajo y lo completan en paralelo. Doce días después del lanzamiento de Opus 4.6, la compañía lanzó Sonnet 4.6, un modelo más barato que casi iguala las habilidades informáticas y de codificación de Opus. A finales de 2024, cuando Anthropic presentó por primera vez modelos que podían controlar computadoras, apenas podían operar un navegador. Ahora Sonnet 4.6 puede navegar por aplicaciones web y completar formularios con capacidad de nivel humano, según Anthropic. Y ambos modelos tienen una memoria de trabajo lo suficientemente grande como para albergar una pequeña biblioteca.
Los clientes empresariales ahora representan aproximadamente el 80 por ciento de los ingresos de Anthropic, y la compañía cerró una ronda de financiación de 30 mil millones de dólares la semana pasada con una valoración de 380 mil millones de dólares. Según todos los indicadores disponibles, Anthropic es una de las empresas de tecnología de más rápido crecimiento de la historia.
Pero detrás de los grandes lanzamientos y valoraciones de productos, Anthropic enfrenta una grave amenaza: el Pentágono ha señalado que puede designar a la empresa como un “riesgo para la cadena de suministro” (una etiqueta más a menudo asociada con adversarios extranjeros) a menos que elimine sus restricciones al uso militar. Tal designación podría efectivamente obligar a los contratistas del Pentágono a despojar a Claude de trabajos delicados.
Sobre el apoyo al periodismo científico
Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
Las tensiones estallaron después del 3 de enero, cuando las fuerzas de operaciones especiales estadounidenses atacaron Venezuela y capturaron a Nicolás Maduro. El Wall Street Journal informó que las fuerzas utilizaron a Claude durante la operación a través de la asociación de Anthropic con el contratista de defensa Palantir, y Axios informó que el episodio intensificó una negociación ya tensa sobre para qué exactamente se podría utilizar a Claude. Cuando un ejecutivo de Anthropic se acercó a Palantir para preguntarle si la tecnología se había utilizado en la redada, la pregunta generó alarmas inmediatas en el Pentágono. (Anthropic ha negado que el acercamiento tuviera como objetivo señalar la desaprobación de cualquier operación específica). El secretario de Defensa, Pete Hegseth, está “cerca” de romper la relación, dijo un alto funcionario de la administración a Axios, y agregó: “Vamos a asegurarnos de que paguen un precio por forzarnos a actuar de esta manera”.
La colisión plantea una pregunta: ¿Puede una empresa fundada para prevenir una catástrofe de la IA mantener sus líneas éticas una vez que sus herramientas más poderosas (agentes autónomos capaces de procesar vastos conjuntos de datos, identificar patrones y actuar según sus conclusiones) estén funcionando dentro de redes militares clasificadas? ¿Es compatible una IA que prioriza la seguridad con un cliente que quiere sistemas que puedan razonar, planificar y actuar por sí solos a escala militar?
Anthropic ha trazado dos líneas rojas: no hay vigilancia masiva de los estadounidenses y no hay armas totalmente autónomas. El director ejecutivo, Dario Amodei, ha dicho que Anthropic apoyará “la defensa nacional en todos los sentidos, excepto aquellos que nos parezcan más a nuestros adversarios autocráticos”. Otros laboratorios importantes (OpenAI, Google y xAI) han acordado flexibilizar las salvaguardias para su uso en los sistemas no clasificados del Pentágono, pero sus herramientas aún no se ejecutan dentro de las redes clasificadas del ejército. El Pentágono ha exigido que la IA esté disponible para “todos los fines legales”.
La fricción pone a prueba la tesis central de Anthropic. La empresa fue fundada en 2021 por ex ejecutivos de OpenAI que creían que la industria no se estaba tomando la seguridad lo suficientemente en serio. Posicionaron a Claude como la alternativa ética. A finales de 2024, Anthropic puso a Claude a disposición en una plataforma Palantir con un nivel de seguridad en la nube de hasta “secreto”, lo que convirtió a Claude, según cuentas públicas, en el primer gran modelo lingüístico que opera dentro de sistemas clasificados.
La pregunta que ahora plantea el enfrentamiento es si la seguridad primero es una identidad coherente una vez que una tecnología se integra en operaciones militares clasificadas y si las líneas rojas son realmente posibles. “Estas palabras parecen simples: vigilancia ilegal de los estadounidenses”, dice Emelia Probasco, investigadora principal del Centro de Seguridad y Tecnología Emergente de Georgetown. “Pero, a fin de cuentas, hay ejércitos enteros de abogados que están tratando de descubrir cómo interpretar esa frase”.
Consideremos el precedente. Después de las revelaciones de Edward Snowden, el gobierno estadounidense defendió la recopilación masiva de metadatos telefónicos (quién llamó a quién, cuándo y durante cuánto tiempo) argumentando que este tipo de datos no conllevaban las mismas protecciones de privacidad que el contenido de las conversaciones. El debate sobre la privacidad entonces giraba en torno a los analistas humanos que buscaban esos registros. Ahora imagine un sistema de inteligencia artificial que consulta vastos conjuntos de datos: mapea redes, detecta patrones y señala personas de interés. El marco legal que tenemos fue construido para una era de revisión humana, no de análisis a escala de máquina.
“En cierto sentido, cualquier tipo de recopilación masiva de datos que se le pide a una IA que analice es, por definición simple, vigilancia masiva”, dice Peter Asaro, cofundador del Comité Internacional para el Control de Armas Robóticas. Axios informó que el alto funcionario “argumentó que existe una considerable zona gris en torno a” las restricciones de Anthropic “y que es inviable que el Pentágono tenga que negociar casos de uso individuales con” la empresa. Asaro ofrece dos lecturas de esa denuncia. La interpretación generosa es que la vigilancia es realmente imposible de definir en la era de la IA. El pesimista, dice Asaro, es que “realmente quieren usarlos para vigilancia masiva y armas autónomas y no quieren decir eso, por eso lo llaman un área gris”.
En cuanto a la otra línea roja de Anthropic, las armas autónomas, la definición es lo suficientemente estrecha como para ser manejable: sistemas que seleccionan y atacan objetivos sin supervisión humana. Pero Asaro ve una zona gris más preocupante. Señala los sistemas Lavender y Gospel del ejército israelí, que, según se ha informado, utilizan IA para generar listas masivas de objetivos que van a un operador humano para su aprobación antes de que se lleven a cabo los ataques. “Básicamente, has automatizado el elemento de orientación, que es algo [that] estamos muy preocupados y [that is] “Está estrechamente relacionado, incluso si cae fuera de la definición estricta y estrecha”, dice. La pregunta es si Claude, operando dentro de los sistemas de Palantir en redes clasificadas, podría estar haciendo algo similar (procesar inteligencia, identificar patrones, sacar a la luz a personas de interés) sin que nadie en Anthropic pueda decir con precisión dónde termina el trabajo analítico y comienza la selección de objetivos.
La operación Maduro pone a prueba exactamente esa distinción. “Si estás recopilando datos e inteligencia para identificar objetivos, pero los humanos deciden: ‘Está bien, esta es la lista de objetivos que realmente vamos a bombardear’, entonces tienes ese nivel de supervisión humana que estamos tratando de exigir”, dice Asaro. “Por otro lado, todavía se depende de estas IA para elegir estos objetivos, y en qué medida investigar y investigar la validez o legalidad de esos objetivos es una cuestión aparte”.
Anthropic puede estar intentando trazar una línea más estrecha entre la planificación de la misión, donde Claude podría ayudar a identificar objetivos de bombardeo, y el trabajo mundano de procesar la documentación. “Existen todo este tipo de aplicaciones aburridas de grandes modelos de lenguaje”, dice Probasco.
Pero las capacidades de los modelos de Anthropic pueden hacer que esas distinciones sean difíciles de sostener. Los equipos de agentes de Opus 4.6 pueden dividir una tarea compleja y trabajar en paralelo: un avance en el procesamiento de datos autónomo que podría transformar la inteligencia militar. Tanto Opus como Sonnet pueden navegar por aplicaciones, completar formularios y trabajar en plataformas con una supervisión mínima. Estas características que impulsan el dominio comercial de Anthropic son las que hacen que Claude sea tan atractivo dentro de una red clasificada. Un modelo con una enorme memoria de trabajo también puede contener un expediente de inteligencia completo. Un sistema que pueda coordinar agentes autónomos para depurar una base de código puede coordinarlos para mapear una cadena de suministro insurgente. Cuanto más capaz se vuelve Claude, más delgada es la línea entre el trabajo analítico que Anthropic está dispuesto a apoyar y la vigilancia y la focalización que se ha comprometido a rechazar.
A medida que Anthropic traspase la frontera de la IA autónoma, la demanda militar de esas herramientas solo se hará más fuerte. Probasco teme que el enfrentamiento con el Pentágono cree un falso binario entre seguridad y seguridad nacional. “¿Qué tal si tenemos seguridad y seguridad nacional?” ella pregunta.