El siguiente ensayo se reimprime con el permiso de La conversaciónuna publicación en línea que cubre las últimas investigaciones.
Somos cada vez más conscientes de cómo la desinformación puede influir en las elecciones. Acerca de 73% de los estadounidenses informan haber visto noticias electorales engañosas y aproximadamente la mitad lucha por discernir qué es verdadero o falso.
Cuando se trata de información errónea, “volverse viral” parece ser más que un simple eslogan. Los científicos han encontrado una estrecha analogía entre la difusión de información errónea y la propagación de virus. De hecho, la forma en que se difunde la información errónea puede ser descrito efectivamente utilizando modelos matemáticos diseñados para simular la propagación de patógenos.
Sobre el apoyo al periodismo científico
Si está disfrutando este artículo, considere apoyar nuestro periodismo galardonado al suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
La preocupación por la desinformación está muy extendida, con un encuesta reciente de la ONU lo que sugiere que el 85% de la gente en todo el mundo está preocupada por ello.
Estas preocupaciones están bien fundadas. La desinformación extranjera ha crecido en sofisticación y alcance desde las elecciones estadounidenses de 2016. En el ciclo electoral de 2024 se han visto peligrosas teorías de conspiración sobre “manipulación del clima” socavando gestión adecuada de huracanes, noticias falsas sobre inmigrantes comiendo mascotas incitar a la violencia contra la comunidad haitiana, y engañoso elección teorias de conspiracion amplificado por el hombre más rico del mundo, Elon Musk.
Reciente estudios han empleado modelos matemáticos extraídos de epidemiología (el estudio de cómo se producen las enfermedades en la población y por qué). Estos modelos se desarrollaron originalmente para estudiar la propagación de virus, pero se pueden utilizar eficazmente para estudiar la difusión de información errónea en las redes sociales.
Una clase de modelos epidemiológicos que funciona con la desinformación se conoce como modelo susceptible-infeccioso-recuperado (SIR) modelo. Estos simulan la dinámica entre individuos susceptibles (S), infectados (I) y recuperados o resistentes (R).
Estos modelos se generan a partir de una serie de ecuaciones diferenciales (que ayudan a los matemáticos a comprender las tasas de cambio) y se aplican fácilmente a la difusión de información errónea. Por ejemplo, en las redes sociales, se propaga información falsa de un individuo a otro, algunos de los cuales se infectan y otros permanecen inmunes. Otros sirven como vectores asintomáticos (portadores de enfermedades), difundiendo información errónea sin saberlo o sin verse afectados negativamente por ello.
Estos modelos son increíblemente útiles porque nos permiten predecir y simular la dinámica de la población y proponer medidas como el número de reproducción básica (R0), el número promedio de casos generados por un individuo «infectado».
Como resultado, ha habido un crecimiento interés en la aplicación de tales enfoques epidemiológicos a nuestro ecosistema de información. La mayoría de las plataformas de redes sociales tienen una estimado R0 mayor que 1, lo que indica que las plataformas tienen potencial para la difusión de información errónea de forma epidémica.
Buscando soluciones
El modelado matemático normalmente implica lo que se llama fenomenológico investigación (donde los investigadores describen patrones observados) o trabajo mecanicista (que implica hacer predicciones basadas en relaciones conocidas). Estos modelos son especialmente útiles porque nos permiten explorar cómo posibles intervenciones pueden ayudar a reducir la difusión de información errónea en las redes sociales.
Podemos ilustrar este proceso básico con un modelo ilustrativo simple que se muestra en el siguiente gráfico, que nos permite explorar cómo podría evolucionar un sistema bajo una variedad de supuestos hipotéticos, que luego pueden verificarse.
Figuras destacadas de las redes sociales con un gran número de seguidores pueden convertirse en «superesparcidores” de desinformación electoral, denunciando falsedades potencialmente cientos de millones de gente. Esto refleja la situación actual en la que los funcionarios electorales reportar ser superado en sus intentos de verificar la información errónea.
En nuestro modelo, si asumimos de manera conservadora que las personas tienen solo un 10% de posibilidades de infectarse después de la exposición, desacreditar la información errónea solo tiene un efecto positivo. pequeño efectosegún estudios. En el escenario del 10% de probabilidad de infección, la población infectada por información errónea sobre las elecciones crece rápidamente (línea naranja, panel izquierdo).
‘Vacunación’ psicológica
La analogía de la propagación viral con la desinformación es apropiada precisamente porque permite a los científicos simular formas de contrarrestar su propagación. Estas intervenciones incluyen un enfoque llamado “vacunación psicológica”también conocido como prebunking.
Aquí es donde los investigadores introducen preventivamente y luego refutan una falsedad para que las personas obtengan inmunidad futura a la información errónea. Es similar a la vacunación, donde a las personas se les administra una dosis (debilitada) del virus para preparar su sistema inmunológico para una exposición futura.
Por ejemplo, una reciente estudiar utilizó chatbots de inteligencia artificial para idear preliterarias contra los mitos comunes del fraude electoral. Esto implicó advertir a la gente con anticipación que los actores políticos podrían manipular su opinión con historias sensacionalistas, como la afirmación falsa de que “las masivas descargas de votos de la noche a la mañana están cambiando las elecciones”, junto con consejos clave sobre cómo detectar esos rumores engañosos. Estas ‘inoculaciones’ pueden integrarse en modelos poblacionales de difusión de información errónea.
Puede ver en nuestro gráfico que si no se emplea el prebunking, las personas tardan mucho más en desarrollar inmunidad a la información errónea (panel izquierdo, línea naranja). El panel derecho ilustra cómo, si el prebunking se implementa a escala, puede contener la cantidad de personas desinformadas (línea naranja).
El objetivo de estos modelos no es hacer que el problema parezca aterrador ni sugerir que las personas son vectores crédulos de enfermedades. Pero hay claro evidencia que algunas noticias falsas se propagan como un simple contagio, infectando a los usuarios inmediatamente.
Mientras tanto, otras historias se comportan más como un contagio complejo, donde las personas requieren una exposición repetida a fuentes de información engañosas antes de “infectarse”.
El hecho de que la susceptibilidad individual a la desinformación pueda variar no resta utilidad a los enfoques extraídos de la epidemiología. Por ejemplo, los modelos se pueden ajustar dependiendo de qué tan difícil o difícil sea que la información errónea “infecte” a diferentes subpoblaciones.
Aunque pensar en las personas de esta manera puede resultar psicológicamente incómodo para algunos, la mayor parte de la información errónea es difundido por un pequeño número de superpropagadores influyentes, tal como ocurre con los virus.
Tomando un epidemiológico El enfoque del estudio de las noticias falsas nos permite predecir su difusión y modelar la eficacia de intervenciones como pre-bunking.
Algunos trabajos recientes validados el enfoque viral utilizando la dinámica de las redes sociales de las elecciones presidenciales de EE. UU. de 2020. El estudio encontró que una combinación de intervenciones puede ser eficaz para reducir la difusión de información errónea.
Los modelos nunca son perfectos. Pero si queremos detener la difusión de información errónea, debemos comprenderla para contrarrestar eficazmente sus daños sociales.
Este artículo fue publicado originalmente en La conversación. Lea el artículo original.