Una herramienta de inteligencia artificial predice si la información errónea sobre salud en línea causará daños en el mundo real
Una nueva técnica analítica basada en inteligencia artificial revela que el lenguaje específico en las publicaciones de información errónea de Reddit predijo que las personas rechazarían las vacunas COVID.
Ahmet Serdar Eser/Anadolu vía Getty Images
La avalancha de información errónea en línea produce inevitablemente consecuencias adversas en medidas clave de salud pública, y la muerte por COVID entre personas no vacunadas destaca como quizás el ejemplo más destacado. Esa relación de causa y efecto (que revisar interminables publicaciones sobre conspiraciones sobre la hidroxiquinolina, la ivermectina y las vacunas puede llevar a la gente por mal camino) parece más que obvia. Pero no es sencillo determinarlo científicamente.
Ha resultado muy difícil encontrar vínculos claros entre la desinformación y las consecuencias adversas, en parte debido a la complejidad de analizar el funcionamiento de un sistema de salud pública y en parte porque la mayoría de las empresas de redes sociales no suelen permitir que partes externas independientes analicen sus datos. Una excepción a mantener los datos fuera de los límites es Reddit, una plataforma que ha comenzado a surgir como un lugar donde, con la bendición de la empresa, puede florecer la investigación de redes sociales. Ahora, los estudios que utilizan publicaciones de Reddit pueden estar acercando a los científicos a encontrar el eslabón perdido de la desinformación.
Un nuevo marco analítico que combine elementos de la psicología social con el poder computacional de un modelo de lenguaje grande (LLM) podría ayudar a cerrar la brecha entre la retórica en línea y el comportamiento en el mundo real. Estos resultados fueron recientemente publicado en el servidor de preimpresión arXiv.org y presentado en la Conferencia CHI de la Asociación de Maquinaria de Computación sobre Factores Humanos en Sistemas de Computación en Hawaii esta semana.
Sobre el apoyo al periodismo científico
Si está disfrutando este artículo, considere apoyar nuestro periodismo galardonado al suscribiéndose. Al comprar una suscripción, ayudas a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
Eugenia Rho, científica informática de Virginia Tech y autora principal del nuevo estudio, quería precisar si existe un vínculo entre el comportamiento de las personas y el tipo de lenguaje que se encuentra en un sitio como Reddit.
Junto con su Ph.D. La estudiante Xiaohan Ding y sus colegas, Rho comenzaron su investigación rastreando primero miles de publicaciones de Reddit de foros prohibidos que se oponían a las vacunas y a las medidas de prevención de COVID. A continuación, el equipo capacitó a un LLM para que reconociera la “esencia” de cada publicación: el significado subyacente del mensaje, a diferencia de las palabras literales que lo componen. “Ésa es una especie de salsa secreta”, dice Valerie Reyna, psicóloga de la Universidad de Cornell y coautora del estudio.
La “teoría del rastro difuso” sugiere que las personas prestan más atención a las implicaciones de una información que a su significado literal. Esto ayuda a explicar por qué es más probable que las personas recuerden una anécdota sobre alguien que fue asaltado que una estadística seca sobre las tasas de criminalidad o por qué los jugadores son más propensos a hacer una apuesta cuando retirarse se presenta como una posible pérdida de dinero en lugar de una posible ganancia. “La gente se siente más conmovida por ciertos tipos de mensajes que por otros”, dice Reyna, quien ayudó a ser pionero en la teoría de trazas difusas en los años 1990.
Esta cuidadosa elección de la redacción mejora la capacidad de persuasión. “Una y otra vez, los estudios demuestran que el lenguaje en forma de esencia es más pegajoso”, dice Rho. El análisis de su equipo encontró que en el contexto de las redes sociales, esto parece ser especialmente cierto para las esencias causales, o información que implica un vínculo directo entre dos eventos. Una publicación podría vincular las vacunas con la enfermedad en un formato específico, utilizando una redacción que tenga mucha fuerza retórica. Por ejemplo, un usuario de Reddit publicó: “La última vez recibí mi inyección de Pfizer”. [Wednesday] y desde entonces me he sentido como si estuviera muerto”. El equipo de Rho descubrió que cada vez que las esencias causales en las publicaciones anti-COVID se hacían más fuertes, las hospitalizaciones y muertes por COVID aumentaban en todo el país, incluso cuando los foros de Reddit fueron posteriormente prohibidos. Los investigadores extrajeron sus datos de casi 80.000 publicaciones que abarcan 20 subreddits activos entre mayo de 2020 y octubre de 2021.
Al utilizar este marco recientemente desarrollado para monitorear la actividad de las redes sociales, los científicos podrían anticipar los resultados de salud en el mundo real de futuras pandemias, o incluso de otros eventos importantes, como las elecciones. “En principio, se puede aplicar a cualquier contexto en el que se tomen decisiones”, afirma Reyna.
Pero un marco así podría no ofrecer predicciones igualmente buenas en todos los ámbitos. “Cuando no hay una esencia discernible, el enfoque podría tener menos éxito”, afirma Christopher Wolfe, psicólogo cognitivo de la Universidad de Miami en Ohio, que no participó en el estudio. Este podría ser el caso de estudiar el comportamiento de las personas que buscan tratamiento para problemas de salud comunes, como el cáncer de mama, o de tratar de ver eventos efímeros esporádicos, como las auroras.
Y el enfoque no distingue necesariamente qué tipo específico de relación causa-efecto existe. “Parece que lo esencial de las redes sociales puede predecir decisiones y resultados de salud, pero lo contrario también es cierto”, dice Rebecca Weldon, psicóloga cognitiva del Instituto Politécnico SUNY, que no contribuyó a la nueva investigación. Más bien sugiere que la relación entre la retórica de las redes sociales y el comportamiento en el mundo real puede ser más bien un circuito de retroalimentación, en el que cada uno fortalece y refuerza al otro.
Tanto Wolfe como Weldon elogiaron a los autores por su innovador enfoque analítico. Wolfe llama al marco un potencial “cambio de juego” para ayudar a navegar por complejos ecosistemas de información en línea. Y el equipo de Rho espera poder ayudar a las grandes empresas de redes sociales y a los funcionarios de salud pública a unirse para desarrollar estrategias más efectivas para moderar el contenido. Después de todo, ser capaz de identificar el tipo de información errónea que más puede influir en el comportamiento de las personas es el primer paso para poder combatirla.