Los funcionarios estadounidenses quieren acceso temprano a la IA avanzada y las grandes empresas han estado de acuerdo

Microsoft, Google DeepMind y xAI de Elon Musk han ofrecido permitir que el gobierno de EE. UU. acceda a nuevos modelos de IA antes de su lanzamiento general, lo que establece una nueva fase en la relación a menudo conflictiva de Silicon Valley con el temor del gobierno de EE. UU. a las amenazas de IA, según el último informe de compañías de IA que ofrecen modelos a funcionarios de EE. UU. en nombre de la revisión de seguridad, con la esperanza de que los analistas del gobierno puedan examinar los sistemas de IA de frontera para amenazas a la seguridad como ataques cibernéticos y uso militar antes de que sean expuestos para el consumo público por parte de desarrolladores y usuarios. e, inevitablemente, aquellos que no deberían tener por qué tener en sus manos un modelo de IA armado.

Las revisiones estarán a cargo del Centro de Estándares e Innovación de IA (CAISI, por sus siglas en inglés) del Departamento de Comercio, que dice que el acuerdo de la compañía con Google DeepMind, Microsoft y xAI le da la oportunidad de examinar los modelos de IA en la fase previa a la implementación, realizar investigaciones en áreas específicas y revisarlos después de que se lancen a producción.

Puede parecer aburrido, pero no lo es. Este es el gobierno pidiendo que se retire la cubierta del capó antes de que el automóvil salga a la carretera, y ese capó se calienta día a día.

Queda por verse, pero existe un temor comprensible de que una IA altamente desarrollada ayude a los ciberdelincuentes a ser aún más efectivos en sus crímenes. “Los funcionarios estadounidenses han comenzado a observar los modelos fronterizos emergentes en las primeras etapas con sospecha y temor, señalando que algunos han elevado los niveles de estrés de los más altos funcionarios del gobierno”, escribió Reuters.

Una de las herramientas de inteligencia artificial que más preocupación ha generado es Mythos de Anthropic, un modelo recientemente revelado. El problema no es que la IA pueda identificar fallas de seguridad que la gente no ve. Es que una herramienta podría permitir que el personal de seguridad encuentre fallas de seguridad y un atacante también podría encontrar fallas de seguridad.

Microsoft ha entrado en el debate sobre la IA. Microsoft ha prometido “trabajar con científicos de EE. UU. y el Reino Unido para identificar y mitigar las consecuencias no deseadas de los modelos de IA y contribuir al desarrollo de conjuntos de datos compartidos y métodos de evaluación para la seguridad y el rendimiento de los modelos”, según su comunicado de prensa.

En un ejemplo de este tipo de colaboración, Microsoft firmó un acuerdo este mes con el Instituto de Seguridad de IA del Reino Unido para colaborar con funcionarios de ambos países para trabajar juntos en la gestión de los riesgos de la IA. Esto sugiere que este tema tiene relevancia más allá de los confines de la capital estadounidense.

CAISI no surge de una pizarra en blanco. La agencia afirma que ya ha realizado más de 40 evaluaciones, incluidas las de modelos de vanguardia, aún inéditos; Los desarrolladores a veces comparten versiones con protecciones eliminadas o reducidas para exponer los peores peligros para la seguridad nacional. Sí, eso suena siniestro, y así es; después de todo, no se confirma la eficacia de una cerradura simplemente implorando a la puerta que permanezca cerrada.

Además, los nuevos pactos amplían el acceso gubernamental previo a los modelos puestos a disposición por OpenAI y Anthropic; Por separado, OpenAI entregó al gobierno de EE. UU. GPT-5.5 para evaluarlo en contextos de seguridad nacional, según Chris Lehane de OpenAI. Al unir esos elementos, comienza a surgir una imagen distinta: los laboratorios de IA más capaces están siendo arrastrados a un entorno de investigación gubernamental antes de que sus tecnologías entren en funcionamiento.

Hay algunas políticas interesantes (y confusas) en juego aquí. En su mayor parte, la administración Trump ha centrado su estrategia de IA en torno a la aceleración, la desregulación y el dominio de Estados Unidos en el escenario mundial. Pero cualquier estrategia de IA progresista también tiene que lidiar con la complicada realidad de que los modelos de frontera no son sólo herramientas de productividad.

El Plan de Acción de IA de Estados Unidos de la administración Trump está orientado principalmente a impulsar la innovación, construir la infraestructura necesaria para sostenerla y promover el liderazgo de Estados Unidos en la diplomacia y la seguridad internacionales de IA. Esa pieza final realmente lleva la carga.

También hay un componente de defensa que no se puede pasar por alto. Solo unos días antes de que se anunciaran estos acuerdos de revisión de modelos, el Pentágono estaba haciendo acuerdos con empresas líderes de tecnología e inteligencia artificial para acceder a los mejores sistemas en redes clasificadas, según informes sobre el esfuerzo de las fuerzas armadas para infundir inteligencia artificial comercial en las operaciones gubernamentales.

La IA en los flujos de trabajo militares plantea una serie de nuevos desafíos y consecuencias. Un error no tiene por qué ser un error; una salida errónea puede ser mucho más que incómoda. Puede ser operativo y puede resultar costoso.

Naturalmente, el problema es que esto podría impedir la innovación. Las empresas de tecnología argumentarán que necesitan flexibilidad; y ciertamente tienen razón en que la IA es actualmente una pelea a cuchillo en una cabina telefónica, con iteraciones rápidas, rivalidades agresivas, gastos masivos en infraestructura informática y un desafío global para China.

Si cada nuevo modelo de IA se retrasa meses antes de que pueda ser introducido, las empresas tecnológicas estadounidenses seguramente acusarán a Washington de hacer un regalo con una gran reverencia a nuestros adversarios.

Pero se puede decir que a Estados Unidos le gustaría evitar que la primera demostración pública significativa de una capacidad particularmente amenazante o peligrosa de la IA sea una divulgación pública, ya que así es como se termina gobernando a través de la disculpa.

La evaluación antes de su implementación y publicación no será emocionante y probablemente resultará molesta para algunos o para todos, lo que suele ser una buena señal de que la regulación se ha situado en algún punto intermedio.

El desafío será mantener las cosas enfocadas. Verificar cada lanzamiento de chatbot no tendría sentido, pero examinar los modelos de frontera más avanzados, particularmente aquellos con implicaciones militares o cibernéticas, biológicas o químicas, es otra cuestión.

No se trata de que un funcionario del gobierno apruebe su autocompletado, sino más bien de que un ingeniero revise el cohete antes de su lanzamiento. Probablemente no sea tan dramático, pero es similar.

Aquí también hay un problema de confianza. Los gigantes tecnológicos han dicho a los reguladores que pueden autorregularse, mientras que estos últimos han dicho a las empresas tecnológicas que no han logrado mantenerse al día con la tecnología en rápida evolución.

El resultado es este incómodo punto medio en el que las empresas ofrecen acceso temprano a los modelos de IA, los investigadores federales realizan pruebas independientes y todos esperan que el procedimiento filtre los peores resultados pero no acabe estancado en la burocracia.

Es difícil no sentir que este momento era inevitable. Una vez que los modelos de IA alcanzaron un punto en el que fueron lo suficientemente poderosos como para influir en sectores como la ciberseguridad, la seguridad nacional y la infraestructura, nunca tendría sentido que estas empresas simplemente probaran sus modelos por sí mismas por el resto de la eternidad.

Es posible que la persona promedio no conozca las complejidades de un punto de referencia o un informe del equipo rojo, pero ciertamente es consciente de que la mera capacidad de estos sistemas para causar un daño tangible hace que valga la pena examinarlos antes de salir al mercado.

Y aunque las grandes tecnológicas todavía quieren seguir adelante y Washington todavía quiere evitar ser tomado por sorpresa, las dos partes aparentemente se han alineado, al menos por ahora, en un curso de acción factible: abrir los modelos de IA antes de que el motor ruga.