Cómo la IA podría ayudar a China y Rusia a inmiscuirse en las elecciones estadounidenses

El siguiente ensayo se reimprime con el permiso de La conversaciónuna publicación en línea que cubre las últimas investigaciones.

Las elecciones en todo el mundo se enfrentan a una amenaza en evolución por parte de actores extranjeros, que involucra la inteligencia artificial.

Los países que intentaban influir mutuamente en las elecciones entraron en una nueva era en 2016, cuando los rusos lanzaron una serie de campañas de desinformación en las redes sociales dirigidas a las elecciones presidenciales de Estados Unidos. Durante los siguientes siete años, varios países –sobre todo China e Irán– utilizaron las redes sociales para influir en las elecciones extranjeras, tanto en Estados Unidos como en otras partes del mundo. No hay razón para esperar que 2023 y 2024 sean diferentes.

Pero hay un elemento nuevo: la IA generativa y los grandes modelos de lenguaje. Tienen la capacidad de producir rápida y fácilmente cantidades infinitas de texto sobre cualquier tema, en cualquier tono y desde cualquier perspectiva. Como un experto en seguridadCreo que es una herramienta especialmente adecuada para la propaganda de la era de Internet.

Todo esto es muy nuevo. ChatGPT se introdujo en noviembre de 2022. El GPT-4, más potente, se lanzó en marzo de 2023. Otras IA de producción de imágenes y lenguajes tienen aproximadamente la misma edad. No está claro cómo estas tecnologías cambiarán la desinformación, qué tan efectivas serán o qué efectos tendrán. Pero estamos a punto de descubrirlo.

Una conjunción de elecciones

La temporada electoral pronto comenzará pleno funcionamiento en gran parte del mundo democrático. El setenta y uno por ciento de las personas que viven en democracias votarán en una elección nacional desde ahora hasta finales del próximo año. Entre ellos: Argentina y Polonia en octubre, Taiwán en enero, Indonesia en febrero, India en abril, la Unión Europea y México en junio y Estados Unidos en noviembre. Nueve democracias africanas, incluida Sudáfrica, celebrarán elecciones en 2024. Australia y el Reino Unido no tienen fechas fijas, pero es probable que las elecciones se realicen en 2024.

Muchas de esas elecciones son muy importantes para los países que han realizado operaciones de influencia en las redes sociales en el pasado. A China le importa mucho Taiwán, Indonesia, India y muchos países africanos. Rusia se preocupa por el Reino Unido, Polonia, Alemania y el UE en general. Todo el mundo se preocupa por Estados Unidos.

Y eso sólo considerando a los jugadores más grandes. Cada elección nacional estadounidense desde 2016 ha traído consigo un país adicional que intenta influir en el resultado. Primero fue solo Rusia, luego Rusia y China, y más recientemente esas dos más Irán. A medida que disminuye el costo financiero de la influencia extranjera, más países pueden participar en la acción. Herramientas como ChatGPT reducen significativamente el precio de producir y distribuir propaganda, lo que hace que esa capacidad esté dentro del presupuesto de muchos más países.

Interferencia electoral

Hace un par de meses, asistí a una conferencia con representantes de todas las agencias de ciberseguridad de EE. UU. Hablaron sobre sus expectativas con respecto a la interferencia electoral en 2024. Esperaban a los actores habituales (Rusia, China e Irán) y uno nuevo e importante: “actores nacionales”. Este es un resultado directo de este costo reducido.

Por supuesto, ejecutar una campaña de desinformación implica mucho más que generar contenido. La parte difícil es la distribución. Un propagandista necesita una serie de cuentas falsas en las que publicar, y otras para impulsarlo a la corriente principal, donde pueda volverse viral. Empresas como Meta han mejorado mucho en la identificación de estas cuentas y su eliminación. El mes pasado, meta anunciado que había eliminado 7.704 cuentas de Facebook, 954 páginas de Facebook, 15 grupos de Facebook y 15 cuentas de Instagram asociadas con una campaña de influencia china, e identificado cientos de cuentas más en TikTok, X (anteriormente Twitter), LiveJournal y Blogspot. Pero esa fue una campaña que comenzó hace cuatro años y produjo desinformación anterior a la IA.

La desinformación es una carrera armamentista. Tanto los atacantes como los defensores han mejorado, pero también el mundo de las redes sociales es diferente. Hace cuatro años, Twitter era una línea directa con los medios y la propaganda en esa plataforma era una forma de inclinar la narrativa política. Un estudio de Columbia Journalism Review encontró que la mayoría de los principales medios de comunicación tweets rusos usados como fuentes de opinión partidista. Ese Twitter, en el que prácticamente todos los editores de noticias lo leen y todos los que publicaban allí, ya no existe.

Muchos medios de propaganda pasaron de Facebook a plataformas de mensajería como Telegram y WhatsApp, lo que los hace más difíciles de identificar y eliminar. TikTok es una plataforma más nueva controlada por China y más adecuada para videos cortos y provocativos, que la IA hace mucho más fácil de producir. Y la cosecha actual de IA generativas está siendo conectado a herramientas eso también facilitará la distribución de contenido.

Las herramientas de IA generativa también permiten nuevas técnicas de producción y distribución, como la propaganda de bajo nivel a escala. Imagine una nueva cuenta personal impulsada por IA en las redes sociales. En general se comporta con normalidad. Publica sobre su falsa vida cotidiana, se une a grupos de interés y comenta las publicaciones de otros y, en general, se comporta como un usuario normal. Y de vez en cuando, no muy a menudo, dice –o amplifica– algo político. Estos robots personales, como los llama la científica informática Latanya Sweeney, tienen una influencia insignificante por sí solos. Pero replicados por miles o millones, tendrían mucho más.

Desinformación sobre los esteroides AI

Ese es sólo un escenario. Es probable que los oficiales militares en Rusia, China y otros lugares a cargo de la interferencia electoral tengan a sus mejores personas pensando en los demás. Y es probable que sus tácticas sean mucho más sofisticadas que en 2016.

Países como Rusia y China tienen un historial de probar tanto ataques cibernéticos como operaciones de información en países más pequeños antes de implementarlos a escala. Cuando eso sucede, es importante poder tomar huellas dactilares de estas tácticas. Para contrarrestar las nuevas campañas de desinformación es necesario ser capaz de reconocerlas, y reconocerlas requiere buscarlas y catalogarlas ahora.

En el mundo de la seguridad informática, los investigadores reconocen que compartir métodos de ataque y su eficacia es la única forma de construir sistemas defensivos sólidos. El mismo tipo de pensamiento también se aplica a estas campañas de información: cuanto más estudien los investigadores qué técnicas se emplean en países distantes, mejor podrán defender sus propios países.

Es probable que las campañas de desinformación en la era de la IA sean mucho más sofisticadas que en 2016. Creo que Estados Unidos necesita implementar esfuerzos para tomar huellas dactilares e identificar productos producidos por IA. propaganda en Taiwán, donde un candidato presidencial afirma que una grabación de audio falsa lo ha difamado, y otros lugares. De lo contrario, no los veremos cuando lleguen aquí. Desgraciadamente, los investigadores, en cambio, están siendo dirigido y acosado.

Quizás todo esto salga bien. Ha habido algunas elecciones democráticas importantes en la era de la IA generativa sin problemas significativos de desinformación: primarias en Argentina, elecciones de primera vuelta en Ecuador y elecciones nacionales en Tailandia, Turquía, España y Grecia. Pero cuanto antes sepamos qué esperar, mejor podremos afrontar lo que venga.

Este artículo fue publicado originalmente en La conversación. Leer el artículo original.