Todo el mundo sabe cómo será el apocalipsis de la IA. Las películas Juegos de guerra y El terminador presenta una computadora superinteligente que toma el control de las armas en un intento por acabar con la humanidad. Afortunadamente, ese escenario es poco probable por ahora. Los misiles nucleares estadounidenses, que funcionan con tecnología de décadas de antigüedad, requieren un ser humano con una llave física para lanzarlos.
Pero la IA ya está matando a personas en todo el mundo de formas más aburridas. Los ejércitos de Estados Unidos e Israel han estado utilizando sistemas de inteligencia artificial para examinar la inteligencia y planificar ataques aéreos, según Noticias Bloomberg, El guardiány +972 Revista.
Este tipo de software ha permitido a los comandantes encontrar y enumerar objetivos mucho más rápido que el personal humano por sí solo. Luego, los ataques son llevados a cabo por pilotos humanos, ya sea con aviones tripulados o drones teledirigidos. «La máquina lo hizo en frío. Y eso lo hizo más fácil», dijo un oficial de inteligencia israelí, según El guardián.
Yendo más allá, los fabricantes de armas turcos, rusos y ucranianos afirman haber construido drones «autónomos» que pueden atacar objetivos incluso si su conexión con el piloto remoto se pierde o se bloquea. Los expertos, sin embargo, son escéptico sobre si estos drones han hecho muertes verdaderamente autónomas.
Tanto en la guerra como en la paz, la IA es una herramienta que permite a los seres humanos hacer lo que quieran de manera más eficiente. Los líderes humanos tomarán decisiones sobre la guerra y la paz de la misma manera que siempre lo han hecho. En el futuro previsible, la mayoría de las armas requerirán que un luchador de carne y hueso apriete un gatillo o presione un botón. La IA permite a las personas en el medio (oficiales de estado mayor y analistas de inteligencia en habitaciones sin ventanas) marcar a sus enemigos para matarlos con menos esfuerzo, menos tiempo y menos pensamiento.
«Eso terminador La imagen del robot asesino oscurece todas las formas ya existentes en las que la guerra basada en datos y otras áreas de vigilancia policial, elaboración de perfiles, control fronterizo, etc., ya están planteando serias amenazas», dice Lucy Suchman, profesora jubilada de antropología y miembro del Comité Internacional para el Control de Armas Robóticas.
Suchman sostiene que lo más útil es entender la IA como una «máquina de estereotipos» que se ejecuta sobre redes de vigilancia más antiguas. «Gracias a la disponibilidad de cantidades masivas de datos y potencia informática», afirma, estas máquinas pueden aprender a seleccionar los tipos de patrones y personas que interesan a los gobiernos. Informe de minorías en vez de El terminador.
Incluso si los seres humanos revisan las decisiones de la IA, la velocidad de la selección automática de objetivos deja «cada vez menos espacio para el juicio», dice Suchman. «Es realmente una mala idea tomar un área de la práctica humana que está plagada de todo tipo de problemas y tratar de automatizarla».
La IA también se puede utilizar para acercarse a objetivos que ya han sido elegidos por los seres humanos. Por ejemplo, el dron de ataque Kargu-2 de Turquía puede cazar un objetivo incluso después de que el dron haya perdido la conexión con su operador, según un informe de las Naciones Unidas sobre una batalla de 2021 en Libia que involucró al Kargu-2.
La utilidad de las armas «autónomas» es «realmente situacional», dice Zachary Kallenborn, investigador de políticas de la Universidad George Mason que se especializa en guerra con drones. Por ejemplo, el sistema de defensa antimisiles de un barco podría tener que derribar docenas de cohetes entrantes y tiene poco peligro de impactar contra cualquier otra cosa. Si bien un arma controlada por IA sería útil en esa situación, sostiene Kallenborn, usar armas autónomas contra «seres humanos en un entorno urbano es una idea terrible», debido a las dificultades para distinguir entre tropas amigas, combatientes enemigos y transeúntes.
El escenario que realmente mantiene despierto a Kallenborn por la noche es el «enjambre de drones», una red de armas autónomas que se dan instrucciones entre sí, porque un error podría repercutir en docenas o cientos de máquinas asesinas.
Varios activistas de derechos humanos, incluido el comité de Suchman, están presionando por un tratado que prohíba o regule las armas autónomas. Así es el Gobierno chino. Si bien Washington y Moscú se han mostrado reacios a someterse al control internacional, han impuesto límites internos a las armas de IA.
El Departamento de Defensa de EE.UU. ha regulaciones emitidas Requiriendo supervisión humana de armas autónomas. Más silenciosamente, Rusia parece haber desactivado las capacidades de inteligencia artificial de sus drones Lancet-2, según un análisis citado por la revista en línea centrada en el ejército Rompiendo la defensa.
El mismo impulso que impulsó el desarrollo de la guerra con IA parece estar imponiendo también sus límites: la sed de control de los líderes humanos.
Los comandantes militares «quieren gestionar con mucho cuidado cuánta violencia se inflige», dice Kallenborn, «porque en última instancia sólo lo hacen para apoyar objetivos políticos más amplios».